mac本地搭建ollama webUI
*簡介:ollama-webUI是一個開源專案,簡化了安裝部署過程,並能直接管理各種大型語言模型(LLM)。本文將介紹如何在你的macOS上安裝Ollama服務並配合webUI呼叫api來完成聊天。
開源地址
- https://github.com/812781385/ollama-webUI.git,開源不易感謝star
- 微信公眾號
環境要求
- macos系統
- nodejs >= 18
- 沒錯,其他的都不需要了
目標
- 執行ollama
- 啟用webUI
- 啟用API服務
- 啟用RAG
安裝ollama
- 官網直接安裝,ollama官網。
- 選擇macos,點選download for mac下載
- 得到的是個壓縮包,解壓,然後一路next
- 安裝完成,直接使用
- 系統可會預設啟動ollama,在電腦的右上角能看到這個標記,如果沒有,請看下一步
在命令列使用ollama
-
開啟終端,輸入
ollama -h
,檢視到所有的命令。 -
點選這裡搜尋你需要的模型,然後直接啟動,例如:
ollama run llama3
,可看到下載速度非常快,取決於你的寬頻。 -
下載完成,現在可以與他聊天了
-
control + D
退出聊天
呼叫ollama的API
- ollama提供api的形式呼叫,直接檢視官網文件
ollama serve
啟動服務,發現埠被佔用
需要點選電腦右上角的ollama圖示來退出ollama,再來執行ollama serve
- ollama服務預設是http://127.0.0.1:11434,目前在macOS上修改ip和埠無效,官方未解決(2024-5-9)。
- 呼叫api會出現跨域,所以需要做一個服務端。我已經做好了,點選檢視原始碼,感謝star
安裝ollama-webUI和serve
-
git clone https://github.com/812781385/ollama-webUI.git
-
cd client
-
pnpm i
-
修改.env 裡的
VITE_APP_AXIOS_BASE_URL
為自己的ip地址 -
npm run dev
執行webUI -
cd serve
-
npm i
-
npm run dev
執行服務端 -
瀏覽器訪問
http://localhost:8080/
-
點選設定按鈕,開啟設定對話方塊,輸入模型名稱,例如:
qwen:0.5b
,點選按鈕開始拉取模型
-
選擇剛剛拉取好的模型後,點選確定。就可以開始聊天了
使用RAG
什麼是RAG,例如你問AI:你的名字叫什麼?,他會告訴你他是個ai模型...,這不是我想要的答案,怎麼辦?有兩種方式,1.訓練自己的模型。2.在prompt裡嵌入自己的文案。例如:你的名字叫小虎,請參考這個問題來回答: 你的名字叫什麼
,這時候他會回答,他的名字叫小虎。
- 如果你要使用RAG,請先安裝chroma資料庫,點選檢視官網文件
chroma run
啟動資料庫服務- 你還需拉取ollama的嵌入式模型
mxbai-embed-large
,點選檢視官網文件 - 然後呼叫serve/app/router裡的介面,新增資料
router.post('/addData', controller.chat.addDataForDB);
- 在webUI的設定對話方塊裡,開啟RAG開關,就可以聊天了
模型推理記憶體損耗
- 以llama2為例計算
影片演示
播放