使用 Appilot 部署 Llama2,會聊天就行!

Seal數澈發表於2023-11-03

Walrus 是一款基於平臺工程理念的應用管理平臺,致力於解決應用交付領域的深切痛點。藉助 Walrus 將 雲原生的能力和 有效實踐擴充套件到非容器化環境,並支援任意應用形態統一編排部署,降低使用基礎設施的複雜度,為研發和運維團隊提供易用、一致的應用管理和部署體驗,進而構建無縫協作的軟體交付流程。
 

在之前文章中,我們探討了如何使用 Walrus 在 AWS 上部署 Llama2。在今天的文章中,我們將手把手教您使用 AI 工具 Appilot 來簡化這個部署過程。Appilot 是一款面向 DevOps 場景的 AI 助手,它可以充分利用 AI 大語言模型的能力讓使用者直接輸入自然語言即可實現應用管理、環境管理、故障診斷、混合基礎設施編排等功能。
 

使用前提

  • 獲取可訪問 gpt-4 模型的 OpenAI API 金鑰。

  • 安裝 python3 和 make。

  • 安裝 kubectl 和 helm。

  • 擁有一個正在執行的 Kubernetes 叢集。
     

安裝 Appilot

克隆版本庫:

git clone 

 

執行以下命令獲取 envfile envfile。

cp .env.example .env

 

編輯 .env檔案並填入 OPENAI_API_KEY 。執行以下命令進行安裝。它將建立一個填寫 venvb並且安裝所需的依賴項。

make install

 

使用 Walrus 後臺

Appilot 也可以使用 Kubernetes 等專案作為後端,本文以 Walrus 作為後端為例。要啟用 Walrus 後臺,首先需要 安裝 Walrus 並編輯 envfile :

  • 設定 TOOLKITS=walrus

  • 填寫 OPENAI_API_KEY 、 WALRUS_URL 和  WALRUS_API_KEY
     

以下是有關配置的更多資訊,Appilot 可透過環境變數或 envfile進行配置:


 

然後,您就可以執行 Appilot 了:

make run

 

像聊天一樣在 AWS 上部署 Llama2

在這篇文章中,我們使用了 Appilot 和 Walrus 來開啟探索 Llama2 部署的旅程,並見證了這些強大的工具如何簡化複雜的部署過程。您可以透過訪問專案的 GitHub 地址下載和安裝 Walrus 和 Appilot:

Walrus: 

Appilot: 
 


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/70026925/viewspace-2992721/,如需轉載,請註明出處,否則將追究法律責任。

相關文章