MoneyPrinterPlus現在支援批次混剪,一鍵AI生成影片,一鍵批次釋出短影片這些功能了。
之前支援的大模型是常用的雲廠商,比如OpenAI,Azure,Kimi,Qianfan,Baichuan,Tongyi Qwen, DeepSeek這些。
支援雲廠商的原因是現在大模型使用基本都很便宜,並且大廠的穩定性,效能都比本地搭建要好很多。
但是很多小夥伴說還是希望接入本地的LLM模型。
所以,最近我對MoneyPrinterPlus進行了一些適配,最新版本已經支援Ollama了。
你可以在Ollama中接入你想要使用的大模型。
下面告訴大家如何在MoneyPrinterPlus中使用本地的Ollama模型。
軟體準備
當然,前提條件就是你需要下載MoneyPrinterPlus軟體啦。
下載地址: https://github.com/ddean2009/MoneyPrinterPlus
用得好的朋友,不妨給個star支援一下。
安裝Ollama
如果已經有Ollama的朋友可以直接跳過本節。
對於沒有安裝過Ollama的朋友,可以直接進入Ollama的官網: https://ollama.com/ 進行安裝和下載。
現在Ollama支援windows,linux和Mac這三種作業系統。
我們以linux環境為例來講解一下Ollama的安裝。
在linux環境中,Ollama只需要執行下面的命令即可:
curl -fsSL https://ollama.com/install.sh | sh
系統會自動下載Ollama的安裝包,進行安裝。
這樣Ollama就安裝好了。
Ollama支援很多models,我們可以在他的 https://ollama.com/library 網站中查詢需要的模型。
比較常用的像llama3,mistral, llama2-chinese等等。
我們可以使用 ollama list 來檢視現有的模型。
如果要下載對應的模型,可以ollama pull llama3從Ollama的模型登錄檔中拉取指定的模型到本地。
然後使用 ollama run llama3 來執行對應的模型。
當然ollama還有一些其他的用法。這裡就不多講了,大家可以去看下ollama的文件。
ollama安裝好之後,我們可以透過下面的命令來測試一下ollama的使用:
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt":"Why is the sky blue?"
}'
如果有返回,那麼說明你的ollama是沒有問題的。可以繼續使用了。
在MoneyPrinterPlus中配置Ollama
我們啟動MoneyPrinterPlus,點選左邊的基本配置,在右邊的LLM大模型配置項中,我們下拉選擇Ollama。
Ollama的配置需要設定兩項。
第一項是Base Url,也就是呼叫Ollama的地址。
如果你的ollama在本地,就填:http://localhost:11434/
如果是在其他遠端的機子上,就填:http://IP:11434/
需要注意的是,Ollama預設只會暴露埠給本機連線。
如果需要遠端連線Ollama,還需要改下Ollama的配置:
vi /etc/systemd/system/ollama.service
在[Service]下面新增一下環境變數:
#配置遠端訪問
Environment="OLLAMA_HOST=0.0.0.0"
修改完之後重新load並重啟ollama即可:
sudo systemctl daemon-reload
sudo systemctl restart ollama
第二項是Ollama中的模型名字。
比如你用的是llama3,那麼這裡就填llama3就行了。
Ollama配置好之後,就可以進入AI影片區域:
在影片主題區輸入你需要生成的影片主題,點選生成影片文案。
如果有文案生成,那麼恭喜你,說明Ollama配置完成了。
接下來盡情使用MoneyPrinterPlus吧。
點我檢視更多精彩內容:www.flydean.com