Faster-Whisper https://github.com/SYSTRAN/faster-whisper 是一个使用 CTranslate2 重新实现的 OpenAI Whisper 模型,旨在提高转录速度和效率。
它显著提高了处理速度,与原始 Whisper 模型相比,保持了相同的准确性的同时,速度提升了最多 4 倍,并且降低了内存使用量。
此外,它支持 CPU 和 GPU 上的 8 位量化,进一步优化效率。
安装
pip install faster-whisper
# 更新
pip install -U faster-whisper
模型安装目录
默认情况下,它自动下载的对应模型文件在local cached 目录下。
比如,我这里配置的使用 large-v3
模型(即 https://huggingface.co/Systran/faster-whisper-large-v3 )
model = WhisperModel("large-v3", device="cuda", compute_type="float16")
对应模型文件被下载在下面地址:
# mac
/Users/ghj1976/.cache/huggingface/hub/models--Systran--faster-whisper-large-v3
# win
C:\Users\Administrator.SY-202304151755\.cache\huggingface\hub\models--Systran--faster-whisper-large-v3
要升级模型也是升级对应的文件。
标签:faster,--,Whisper,large,v3,whisper,Faster From: https://www.cnblogs.com/ghj1976/p/18034191/fasterwhisper