本地部署 Llama3 – 8B/70B 大模型!最簡單的方法: 支援CPU /GPU執行 【3種方案】
目前在開源大模型領域,Llama3 無疑是最強的!這次Meta不僅免費公佈了 8B和70B兩個效能強悍的大模型,400B也即將釋出,這是可以和GPT-4對打的存在!今天我們就來介紹3各本地部署方法,簡單易懂,非常適合新手!
1. GPT4All : 適合低配置使用者,可以在CPU/GPU上跑 【點選下載:https://gpt4all.io/index.html】
2.LMstudio ,支援下載多模型 8B/70B 等,模型選擇更多!【點選下載:https://lmstudio.ai/】
提醒:如果你不在海外,實在下載不了模型,
請透過網盤獲取 【點選下載:https://www.123pan.com/s/jZKSVv-M1Xfv.html】 提取碼:uBNq
3.Ollama,支援多平臺!Windows / Mac /Linux 都可以執行 【點選下載:https://ollama.com/】
並在 Windows 上開啟 WSL 功能:
安裝Docker Desktop :【點選前往:https://www.docker.com/products/docker-desktop/】
然後本地安裝webUI
(1)在CPU下執行:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
(2)支援GPU執行:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
安裝完成透過本地地址:http://127.0.0.1:3000 進行訪問
參考連線:https://www.freedidi.com/12189.html
參考影片:https://www.youtube.com/watch?v=NP0s7T9Mou8