先給出Llama-recipes專案的連結
LLaMa環境配置
conda create -n LLama python=3.10 # 建立虛擬環境
conda activate LLama # 啟用虛擬環境
-
按照LLama recipy 安裝包
cd 你的llama recipy 的存放位置
pip install --extra-index-url https://download.pytorch.org/whl/test/cu118 llama-recipes
執行quick start
開啟jupyter notebook, 開啟前需要下載, 指令
pip install jupyter notebook -i 清華源 # 利用清華源進行安裝
# 安裝完畢
jupyter notebook # 啟動jupyter notebook
# 找到quick start 一步一步執行
Replicate API 獲取
Replicate 為任何人提供了一種在雲中執行生成式 AI 模型的簡單、快速的方法。 有數千種模型可供使用。
關聯你的GitHub賬號, 獲取token號
出現問題
在執行1.0.3. 2.1- 安裝依賴這裡出現無法安裝fassi-gpu
安裝出現清華源不能訪問的現象
因此找到你的.condarc檔案, 一般在C:\Users\使用者名稱這裡。
然後將它裡面內容清空
隨後, 採用網上說的方法:
conda install -c conda-forge faiss-gpu cudatoolkit=你的nvcc -V的cuda號或比這個低
需要額外安裝的包
pip install pillow_heif
pip install opencv-python
報錯1
ValueError: unstructured_inference is not installed, pytesseract is not installed and the text of the PDF is not extractable. To process this file, install unstructured_inference, install pytesseract, or remove copy protection from the PDF.
解決
pip install unstructured_inference
報錯2
Following dependencies are missing: pikepdf, pypdf. Please install them using `pip install pikepdf pypdf`.
PDF text extraction failed, skip text extraction...
解決
pip install pikepdf pypdf
基本上就可以執行它裡面的jupyter notebook了。