學習筆記447—本地部署 Llama3 – 8B/70B 大模型!最簡單的方法: 支援CPU /GPU執行 【3種方案】

何弈發表於2024-04-25

本地部署 Llama3 – 8B/70B 大模型!最簡單的方法: 支援CPU /GPU執行 【3種方案】

目前在開源大模型領域,Llama3 無疑是最強的!這次Meta不僅免費公佈了 8B和70B兩個效能強悍的大模型,400B也即將釋出,這是可以和GPT-4對打的存在!今天我們就來介紹3各本地部署方法,簡單易懂,非常適合新手!

1. GPT4All : 適合低配置使用者,可以在CPU/GPU上跑 【點選下載:https://gpt4all.io/index.html

2.LMstudio ,支援下載多模型 8B/70B 等,模型選擇更多!【點選下載:https://lmstudio.ai/

提醒:如果你不在海外,實在下載不了模型,

請透過網盤獲取 【點選下載:https://www.123pan.com/s/jZKSVv-M1Xfv.html提取碼:uBNq

3.Ollama,支援多平臺!Windows / Mac /Linux 都可以執行 【點選下載:https://ollama.com/

並在 Windows 上開啟 WSL 功能:

安裝Docker Desktop :【點選前往:https://www.docker.com/products/docker-desktop/

然後本地安裝webUI

(1)在CPU下執行:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

(2)支援GPU執行:

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

安裝完成透過本地地址:http://127.0.0.1:3000 進行訪問

參考連線:https://www.freedidi.com/12189.html

參考影片:https://www.youtube.com/watch?v=NP0s7T9Mou8

相關文章