fast-whisper 官網地址:https://github.com/SYSTRAN/faster-whisper
搭建環境時,按照官方的建立環境要求執行的
- 使用
conda create -n fast_whisper python=3.9
建立虛擬環境 - 執行
pip install faster-whisper
安裝庫 pip install nvidia-cublas-cu12 nvidia-cudnn-cu12==8.*
- 降低numpy版本,fast-whisper只能基於numpy 1.* 版本
關於linux上建立虛擬環境可以參考 https://zhuanlan.zhihu.com/p/440548295
在執行示例的時候報錯如下:
程式碼如下:
from faster_whisper import WhisperModel
model_size = "large-v3"
# Run on GPU with FP16
model = WhisperModel(model_size, device="cuda", compute_type="float16")
# or run on GPU with INT8
# model = WhisperModel(model_size, device="cuda", compute_type="int8_float16")
# or run on CPU with INT8
# model = WhisperModel(model_size, device="cpu", compute_type="int8")
segments, info = model.transcribe("test_wavs/whisper_test.wav", beam_size=5)
print("Detected language '%s' with probability %f" % (info.language, info.language_probability))
for segment in segments:
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
原因應該是沒有安裝cudnn相關庫。
方法一:
下載cudnn安裝包
去官網下載了對應的cudnn安裝包,網址如下:https://developer.nvidia.com/rdp/cudnn-archive#a-collapse805-111
選擇對應的linux x86_64版本下載。
解壓安裝
參考https://zhuanlan.zhihu.com/p/701577195
方法二:
直接在建立的虛擬環境中執行conda install cudnn
然後再執行即可執行成功。
我這邊直接在虛擬環境中執行方法二後,程式即成功執行了,故此沒有再繼續驗證方法一。