fast-whisper 官网地址:https://github.com/SYSTRAN/faster-whisper
搭建环境时,按照官方的创建环境要求执行的
- 使用
conda create -n fast_whisper python=3.9
创建虚拟环境 - 执行
pip install faster-whisper
安装库 pip install nvidia-cublas-cu12 nvidia-cudnn-cu12==8.*
- 降低numpy版本,fast-whisper只能基于numpy 1.* 版本
关于linux上创建虚拟环境可以参考 https://zhuanlan.zhihu.com/p/440548295
在运行示例的时候报错如下:
代码如下:
from faster_whisper import WhisperModel
model_size = "large-v3"
# Run on GPU with FP16
model = WhisperModel(model_size, device="cuda", compute_type="float16")
# or run on GPU with INT8
# model = WhisperModel(model_size, device="cuda", compute_type="int8_float16")
# or run on CPU with INT8
# model = WhisperModel(model_size, device="cpu", compute_type="int8")
segments, info = model.transcribe("test_wavs/whisper_test.wav", beam_size=5)
print("Detected language '%s' with probability %f" % (info.language, info.language_probability))
for segment in segments:
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
原因应该是没有安装cudnn相关库。
方法一:
下载cudnn安装包
去官网下载了对应的cudnn安装包,网址如下:https://developer.nvidia.com/rdp/cudnn-archive#a-collapse805-111
选择对应的linux x86_64版本下载。
解压安装
参考https://zhuanlan.zhihu.com/p/701577195
方法二:
直接在创建的虚拟环境中执行conda install cudnn
然后再运行即可运行成功。
我这边直接在虚拟环境中执行方法二后,程序即成功运行了,故此没有再继续验证方法一。
标签:ops,whisper,libcudnn,cudnn,so.9,model From: https://www.cnblogs.com/kevinarcsin001/p/18545837