MoneyPrinterPlus全面支援本地Ollama大模型

flydean發表於2024-07-15

MoneyPrinterPlus現在支援批次混剪,一鍵AI生成影片,一鍵批次釋出短影片這些功能了。

之前支援的大模型是常用的雲廠商,比如OpenAI,Azure,Kimi,Qianfan,Baichuan,Tongyi Qwen, DeepSeek這些。

支援雲廠商的原因是現在大模型使用基本都很便宜,並且大廠的穩定性,效能都比本地搭建要好很多。

但是很多小夥伴說還是希望接入本地的LLM模型。

所以,最近我對MoneyPrinterPlus進行了一些適配,最新版本已經支援Ollama了。

你可以在Ollama中接入你想要使用的大模型。

下面告訴大家如何在MoneyPrinterPlus中使用本地的Ollama模型。

軟體準備

當然,前提條件就是你需要下載MoneyPrinterPlus軟體啦。

下載地址: https://github.com/ddean2009/MoneyPrinterPlus

用得好的朋友,不妨給個star支援一下。

安裝Ollama

如果已經有Ollama的朋友可以直接跳過本節。

對於沒有安裝過Ollama的朋友,可以直接進入Ollama的官網: https://ollama.com/ 進行安裝和下載。

現在Ollama支援windows,linux和Mac這三種作業系統。

我們以linux環境為例來講解一下Ollama的安裝。

在linux環境中,Ollama只需要執行下面的命令即可:

curl -fsSL https://ollama.com/install.sh | sh

系統會自動下載Ollama的安裝包,進行安裝。

這樣Ollama就安裝好了。

Ollama支援很多models,我們可以在他的 https://ollama.com/library 網站中查詢需要的模型。

比較常用的像llama3,mistral, llama2-chinese等等。

我們可以使用 ollama list 來檢視現有的模型。

如果要下載對應的模型,可以ollama pull llama3從Ollama的模型登錄檔中拉取指定的模型到本地。

然後使用 ollama run llama3 來執行對應的模型。

當然ollama還有一些其他的用法。這裡就不多講了,大家可以去看下ollama的文件。

ollama安裝好之後,我們可以透過下面的命令來測試一下ollama的使用:

curl http://localhost:11434/api/generate -d '{
  "model": "llama3",
  "prompt":"Why is the sky blue?"
}'

如果有返回,那麼說明你的ollama是沒有問題的。可以繼續使用了。

在MoneyPrinterPlus中配置Ollama

我們啟動MoneyPrinterPlus,點選左邊的基本配置,在右邊的LLM大模型配置項中,我們下拉選擇Ollama。

image-20240715142420621

Ollama的配置需要設定兩項。

第一項是Base Url,也就是呼叫Ollama的地址。

如果你的ollama在本地,就填:http://localhost:11434/

如果是在其他遠端的機子上,就填:http://IP:11434/

需要注意的是,Ollama預設只會暴露埠給本機連線。
如果需要遠端連線Ollama,還需要改下Ollama的配置:

vi /etc/systemd/system/ollama.service

在[Service]下面新增一下環境變數:
#配置遠端訪問
Environment="OLLAMA_HOST=0.0.0.0"

修改完之後重新load並重啟ollama即可:

sudo systemctl daemon-reload 

sudo systemctl restart ollama

第二項是Ollama中的模型名字。

比如你用的是llama3,那麼這裡就填llama3就行了。

Ollama配置好之後,就可以進入AI影片區域:

在影片主題區輸入你需要生成的影片主題,點選生成影片文案。

image-20240715144309076

如果有文案生成,那麼恭喜你,說明Ollama配置完成了。

接下來盡情使用MoneyPrinterPlus吧。

點我檢視更多精彩內容:www.flydean.com

相關文章