多 AI 智慧體系統- AI 智慧體的 6 個關鍵要素

唯一客服系统开发笔记發表於2024-05-27
一個優秀的智慧體具備六個要素:

1. 角色扮演:
給 LLM 設定一個角色,可以讓 LLM 生成的結果和這個角色的能力更相關。比如你告訴 LLM 現在是一個資深金融分析師,那麼得到的結果會金融分析更相關。越是能力強的模型,這個影響可能會越小,但是對於能力沒那麼強的模型,這個影響相對比較大。

2. 專注
這其實和人執行任務有些類似,越是專注某個特定領域,需要選擇的工具越少,需要處理的資料集也越少,上下文內容也越少,不容易偏離目標和出現幻覺,結果會更好。

所以對於複雜的任務儘可能拆分成多個小的任務,形成一個工作流,多個智慧體協作完成任務,甚至於可以讓 LLM 幫你規劃和拆分任務。

比如翻譯任務,如果一個智慧體一次翻譯可能結果一般,但是如果分成多個智慧體,先直譯然後反思最後意譯結果就好很多。

3. 使用工具

智慧體有能力呼叫工具,並且能選擇最適合當前任務的工具。

但是並不是說給它越多工具越好,因為工具越多,越難以選擇,尤其是模型能力弱的 LLM,更可能出錯,所以一方面要讓智慧體專注減少任務的範圍進而減少工具的數量,另一方面要提供有能力解決任務的工具。

4. 協作

通常對於複雜的任務,不是一個智慧體在完成任務,而是多個智慧體一起完成任務,那麼在整個過程中,需要確保智慧體之間能相互通訊,比如一個智慧體的輸出可以作為下一個智慧體的輸入,比如有一個智慧體專門負責排程根據中間結果呼叫不同的智慧體。

所以對於多智慧體系統,還需要設計好工作流,確保智慧體之間整體協作的通暢。

這種協作不僅是指智慧體和智慧體之間,也包含人和智慧體之間的協作。

現在的智慧體還不足以智慧到自始至終能做出正確的決策,有時候還需要人工的干預,在中間及時給出反饋,有錯誤給予糾正,缺少資訊補充上下文。

比如 Devin 這種複雜的 AI 軟體工程師,在遇到一些解決不了的錯誤時,也需要人工干預。

5. 設定防護欄和邊界

通常智慧體的任務,輸入和輸出都是自然語言,並不是結構化的資料,這就導致如果邊界條件不清晰的會卡在某個地方反覆執行,比如早年的 AutoGPT,就可能會陷入死迴圈,導致白白浪費很多 GPT-4 Tokens,價格不菲。

所以設定好防護欄,就能確保智慧體能在正確的軌道上,如果出現故障可以及時干預,而不至於卡在某個任務上白白浪費 Tokens。

6. 記憶能力

記憶能力指的是智慧體要有能力記得自己做過的事情,得到和生成的資料,用這些資料來進行後面的決策和完成任務。

相關文章