2000+多種開源大模型隨意部署!一鍵搭建本地大模型,不挑環境、不挑配置(ollama 安裝部署教程《Windows/Linux,Mac》)
一、Ollama介紹
2.1 基本介紹
Ollama
是一個支援在Windows
、Linux
和MacOS
上本地執行大語言模型的工具。它允許使用者非常方便地執行和使用各種大語言模型,比如Qwen
模型等。使用者只需一行命令就可以啟動模型。
主要特點包括:
- 跨平臺支援
Windows
、Linux
、MacOS
系統。 - 提供了豐富的模型庫,包括
Qwen
、Llama
等1700+大語言模型,可以在官網model library
中直接下載使用。 - 支援使用者上傳自己的模型。使用者可以將
huggingface
等地方的ggml
格式模型匯入到ollama
中使用。也可以將基於pytorch
等格式的模型轉換為ggml
格式後匯入。 - 允許使用者透過編寫
modelfile
配置檔案來自定義模型的推理引數,如temperature
、top_p
等,從而調節模型生成效果。 - 支援多
GPU
並行推理加速。在多卡環境下,可以設定環境變數來指定特定GPU
。 - 強大的技術團隊支援,很多模型開源不到24小時就能獲得支援。
總的來說,Ollama
降低了普通開發者使用大語言模型的門檻,使得本地部署體驗大模型變得簡單易行。對於想要搭建自己的AI
應用,或者針對特定任務調優模型的開發者來說,是一個非常有用的工具。它的一些特性,如允許使用者自定義模型引數,對模型進行個性化適配提供了支援。
2.2 官網
- Ollama 下載:https://ollama.com/download
- Ollama 官方主頁:https://ollama.com
- Ollama 官方 GitHub 原始碼倉庫:https://github.com/ollama/ollama/
二、window 安裝
直接從下載頁面下載相對應系統的安裝程式,Windows安裝程式選擇Windows
的安裝包,點選“Download for Windows(Preview)
”
下載好以後一路install
安裝即可。
安裝完成之後,開啟一個cmd命令視窗,輸入“ollama”命令,如果顯示ollama相關的資訊就證明安裝已經成功了!
三、Mac 安裝
直接從下載頁面下載相對應系統的安裝程式,Windows安裝程式選擇Windows
的安裝包,點選“Download for Mac
”
下載好後開啟安裝命令列
四、 Linux 安裝
在Linux系統上,可以透過指令碼安裝或原始碼編譯的方式來安裝Ollama
。下面分別介紹這兩種安裝方法。
4.1 指令碼安裝
Ollama
提供了一鍵安裝指令碼,可以快速在Linux系統上安裝Ollama
。安裝步驟如下:
-
開啟終端,執行以下命令下載安裝指令碼:
curl -fsSL https://ollama.com/install.sh | sh
-
等待安裝完成。安裝指令碼會自動下載所需的元件,並完成
Ollama
的安裝與配置。 -
安裝完成後,可以透過以下命令啟動
Ollama
:ollama serve
4.2 二進位制安裝
-
將 Ollama 的二進位制檔案下載到 PATH 中的目錄:
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama sudo chmod +x /usr/bin/ollama
-
將 Ollama 新增為自啟動服務,首先,為 Ollama 建立使用者:
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama
-
然後在該位置:
/etc/systemd/system/ollama.service
建立服務檔案[Unit] Description=Ollama Service After=network-online.target [Service] ExecStart=/usr/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3 [Install] WantedBy=default.target
-
設定開機自啟動
sudo systemctl daemon-reload sudo systemctl enable ollama
-
啟動 Ollama,使用以下命令啟動 Ollama:
systemd
sudo systemctl start ollama
4.3 安裝特定版本
設定 OLLAMA_VERSION
欄位,,可以安裝對應的版本
curl -fsSL https://ollama.com/install.sh | OLLAMA_VERSION=0.3.13 sh
4.4 檢視日誌
檢視作為啟動服務執行的 Ollama 的日誌:
journalctl -e -u ollama
4.5 更新
透過shell 指令碼更新 Ollama:
curl -fsSL https://ollama.com/install.sh | sh
或者下載 Ollama 二進位制檔案:
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama
sudo chmod +x /usr/bin/ollama
4.6 解除安裝
- 刪除 Ollama 服務:
sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service
- 從 bin 目錄中刪除 Ollama 二進位制檔案:
/usr/local/bin
,/usr/bin
,/bin
sudo rm $(which ollama)
- 刪除下載的模型和 Ollama 服務使用者和組:
sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama
三、命令引數
以下是 Ollama 使用常見的指令:
ollama serve #啟動ollama
ollama create #從模型檔案建立模型
ollama show #顯示模型資訊
ollama run #執行模型
ollama pull #從登錄檔中拉取模型
ollama push #將模型推送到登錄檔
ollama list #列出模型
ollama cp #複製模型
ollama rm #刪除模型
ollama help #獲取有關任何命令的幫助資訊
四、設定自定義模型下載路徑
預設情況下,ollama模型的儲存目錄如下:
- macOS:
~/.ollama/models
- Linux:
/usr/share/ollama/.ollama/models
- Windows:
C:\Users\<username>\.ollama\models
4.1 Windows 更改 Ollama 模型存放位置
在Windows系統中,若要更改Ollama模型的存放位置,可以按照以下步驟操作:
- 開啟環境變數編輯介面。可以透過以下方式:
- 右鍵點選“此電腦”或“我的電腦”,選擇“屬性”。
- 在系統視窗中選擇“高階系統設定”。
- 在系統屬性視窗中點選“環境變數”按鈕。
- 在環境變數視窗中,點選“新建”建立一個新的系統變數或使用者變數。
- 變數名:
OLLAMA_MODELS
- 變數值:輸入你希望設定的新模型存放路徑,例如:
D:\Ollama\Models
- 變數名:
- 點選“確定”儲存設定。
- 重啟任何已經開啟的Ollama相關應用程式,以便新的路徑生效。
4.2 Linux/Mac 更改 Ollama 模型存放位置
在Linux或Mac系統中,更改Ollama模型存放位置的步驟如下:
-
開啟終端。
-
建立一個新的目錄作為模型存放位置,例如:
mkdir -p /path/to/your/new/ollama/models
-
設定環境變數。在Linux系統中,可以透過編輯
~/.bashrc
或~/.bash_profile
檔案(對於bash shell)或~/.zshrc
檔案(對於zsh shell)。在Mac系統中,可以透過編輯~/.bash_profile
或~/.zshrc
檔案。使用以下命令編輯檔案:nano ~/.bashrc # 或者使用其他的文字編輯器,如vim
-
在檔案末尾新增以下行來設定
OLLAMA_MODELS
環境變數:export OLLAMA_MODELS="/path/to/your/new/ollama/models"
-
儲存並關閉檔案。如果你使用的是nano編輯器,可以按
Ctrl + X
,然後按Y
確認儲存,最後按Enter
鍵。 -
使環境變數生效。在終端中執行以下命令:
source ~/.bashrc # 或者source ~/.bash_profile,取決於你編輯的檔案
-
重啟任何已經開啟的Ollama相關應用程式,以便新的路徑生效。
五、匯入 huggingface 模型
Ollama 從最新版0.3.13開始支援從 Huggingface Hub 上直接拉取各種模型,包括社群建立的 GGUF 量化模型。使用者可以透過簡單的命令列指令快速執行這些模型。
可以使用如下命令:
ollama run hf.co/{username}/{repository}
請注意,您可以使用
hf.co
或huggingface.co
作為域名。
要選擇不同的量化方案,只需在命令中新增一個標籤:
ollama run hf.co/{username}/{repository}:{quantization}
例如:
ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:IQ3_M
ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:Q8_0
量化名稱不區分大小寫,因此以下命令同樣有效:
ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:iq3_m
您還可以直接使用完整的檔名作為標籤:
ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:Llama-3.2-3B-Instruct-IQ3_M.gguf
參考連結
-
https://techdiylife.github.io/blog/blog.html?category1=c02&blogid=0037#ollama應用全面解析20個問題精通ollama
-
https://techdiylife.github.io/blog/blog.html?category1=c02&blogid=0037#16-linux系統中以服務模式執行ollama如何檢視執行日誌
-
https://mn.cyou/archives/ollama
-
https://datawhalechina.github.io/handy-ollama/#/
-
https://github.com/ollama/ollama/blob/main/docs
-
https://huggingface.co/docs/hub/en/ollama
本文由部落格一文多發平臺 OpenWrite 釋出!