在大語言模型時代,AI Chatbots下一步將走向何方?
目錄
【編者按:上一期IDP Inspiration,我們為大家介紹了大語言模型中的明星GPT-3的發展史、創新點、應用領域等。這一期,我們將繼續沿著大預言模型之路,走進其重要應用領域—— AI對話機器人。
今天大家分享的文章來自CMU博士研究生Jacky Liang, 文章詳細紹了AI對話機器人的發展歷程和未來展望。Jacky認為由大語言模型驅動的AI Chatbots(聊天機器人)比更早期基規則的聊天機器人要強得多,但是距離商業應用目前還有一定距離。
以下是譯文,Enjoy!】
作者 | Jacky Liang
編輯 | 嶽揚,小白
大語言模型(LLMs)的最新研究進展1可能將驅動下一代Chatbots的發展。然而,正如Meta的BlenderBot 3公開演示出現的狀況所示,讓AI Chatbots功能足夠強大,又避免出現有危害的回應,這不是一個簡單的任務。雖然我們相信LLMs在不久的將來會被用於許多商業場景,但是由LLMs驅動的Chatbots可能不會成為其中的一種應用。
01 Meta的 BlenderBot 3
之前文章介紹過[2]:Meta的BlenderBot 3發表了不少政治錯誤的言論。不過,Meta似乎已經“解決”了其中大部分問題,而且Meta在其新聞稿3中對此問題並不遮掩。其新聞稿中這樣說明:
所有的對話型AI Chatbots有時候都會模仿併產生不安全、有偏見或攻擊性的言論。對此我們進行了大量的研究,並開發了新的技術,現在BlenderBot 3已經被加上了一層“保護罩”。但即使做了這些工作,BlenderBot仍然可能會發表錯誤言論,因此我們正在收集使用者的反饋,以便讓它變得更好。
然而,BlenderBot 3產生的真正影響,可能不是其演示時發表的爭議性內容。Meta還發布了BlenderBot 3背後的AI模型以及用來訓練它的資料集。這對進行對話型AI研究和其他AI研究的研究人員來說是一件非常好的事情,因為使用如此大規模的資料集和1750億個引數來訓練模型需要花費很大的成本,而普通人不可能耗費如此巨大的成本。因此這對人工智慧研究的平民化有很大幫助,整個行業都應該鼓勵大型科技公司多開放一些科技成果。
02 使用大語言模型前後的Chatbots有何差別?
但是,如果讓我們將時光倒流,想一想BlenderBot 3在Chatbots中的位置,會發現Chatbots並不是新事物,其有著悠久的歷史4。 一個非常早期的自然語言Chatbot是ELIZA5,其由麻省理工學院的科學家在1966年開發。ELIZA的特別之處在於,它被專門設計來展示 "人類和機器之間交流的表面性"。它所做的只是將使用者輸入的關鍵性短語插入到預定義的句子模板中,但其效果令許多與該系統進行互動的人十分驚訝。
據說有些人認為ELIZA是有感知能力的,但這與最近一名前谷歌工程師也認為該公司的Chatbot LaMDA是有感知能力6並不一樣。
ELIZA和LaMDA之間存在質的區別,在大型語言模型(LLMs)之前的所有Chatbots和之後的Chatbots之間也存在著區別。
在LLMs之前,Chatbots依靠人工設計的模式匹配和識別演算法來解析和構建句子。這些演算法明確地分析一個句子的語法樹(名詞短語、動詞短語等是什麼,它們之間的關係如何)以及它們的語義(單詞在句子的上下文中指的是什麼,有什麼意義)。從ELIZA開始的Chatbots,甚至最近的語音助手,如Siri、Alexa和Google Assistant,都依賴於類似的技術。
然而,讓軟體工程師和語言學家一起列舉出所有可能的方法來解析一種語言中所有可能的句子是不可行的。因此,這些基於規則的Chatbots往往要麼非常脆弱,要麼功能非常有限,只能處理狹窄範圍內的常見語言表達。
在LLMs出現後,情況發生了變化(開始於OpenAI的GPT-27,隨著GPT-38的出現,情況有了更大的改善),其是在資料量非常大的資料集上訓練的大型深度神經網路。 這類模型的訓練目標是根據之前的所有單詞來預測下一個 "單詞"。這是一個簡單的目標,加上網際網路大規模的資料和大模型,使LLMs能夠以以前基於規則的系統無法做到的方式進行回應和生成長而連貫的文字。
要讓LMMs進行“對話”,我們只需要給一個類似於對話的文字序列作為輸入,並要求LLMs 來預測接下來應該有哪些文字。請注意, LLMs並不是要表達一個特定的意思或主動傳達一些想法。它只是根據當前的對話和模型在其訓練資料中看到的所有對話來給出最可能的回應。
這並不是說Chatbots對同樣的問題會給出同樣的回答。我們可以很容易地提示Chatbots以不同的風格進行“交談”,就像人們可以提示文轉圖AI模型以不同的風格生成影像9一樣。例如,向GPT-3提示 "以下是5歲兒童之間的對話",可能會得到與 "以下是70歲老人之間的對話 "非常不同的結果。
03
上述一切意味著什麼?Meta的 BlenderBot 3
基於LLMs的Chatbots可以比以前基於規則的Chatbots更加靈活和強大,但是這並不意味著前者總是比後者更好或更加受歡迎。前文介紹的BlenderBot 3就是基於LLMs的Chatbots,基於LLMs的Chatbots可能很難驗證真實性,也很難做到安全。況且總有一些場景,基於規則的“罐頭式”的回答比創造性的回答更加合適。
基於規則的Chatbots如今在客戶服務等應用中非常普遍,但是據我所知實際上還沒有一個純粹的基於LLMs的Chatbots,無論是文字還是語音。很可能LLMs已經被用來理解使用者的輸入(例如,弄清楚使用者的問題是關於銷售還是技術支援),但不太可能由LLMs直接生成讓面向使用者的回應。
BlenderBot 3是作為一個研究專案而不是商業產品釋出的(就像OpenAI的GPT-3),這表明,基於LLMs的“開放語言”聊天機器人(“open-language” chatbots) 還沒有準備好供公眾和商業使用。因為“重新整合”這些模型,讓它們在避免有害回應的同時保持話題性,仍需要額外的研究。
更有趣是,對於AI Chatbots來說,是否真正有有用的應用或者流行的用途,關鍵在於AI Chatbots應用的領域(例如,客戶服務10、影片遊戲NPC、教育)。無論如何,對於人工智慧和語言學來說,BlenderBot 3出現都是令人激動的,我們應該期待未來會有更多先進的AI Chatbots。
END
本期互動: 你對AI聊天機器人的應用現狀、前景和技術演進怎麼看呢?歡迎留言討論。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/70018536/viewspace-2931111/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 計算產業的下一步將走向何方?產業
- 雲資料庫時代,DBA將走向何方?-v4資料庫
- 助力AI騰飛,深度學習走向何方?AI深度學習
- 58同城等同類網站將走向何方網站
- 語言大模型大模型
- 大語言模型模型
- 在本地跑一個大語言模型模型
- 在Windows電腦上快速執行AI大語言模型-Llama3WindowsAI模型
- 大語言模型的應用探索—AI Agent初探!模型AI
- 探索將大語言模型用作推薦系統模型
- 關於大語言模型時代下自學的一點想法模型
- 2020年,人工智慧將走向何方?人工智慧
- 大模型走向產業的一小步,AI走向普惠的一大步大模型產業AI
- LLM大語言模型演算法特訓,帶你轉型AI大語言模型演算法工程師模型演算法AI工程師
- 微調大語言模型模型
- AI走向何方?我們在GTC 2022看到了這些趨勢AI
- 新型蛋白質大語言模型即將登陸Google Cloud模型GoCloud
- 人工智慧時代已來,AI晶片路在何方?人工智慧AI晶片
- 鉅變來了!金融大資料平臺走向何方?大資料
- 如何評估大語言模型模型
- AI大模型時代: 還需要百度嗎?AI大模型
- 為什麼大語言模型能將我們帶入AGI?模型
- 今晚直播:展望2022,作業系統將走向何方?作業系統
- 在本地跑一個大語言模型(2) - 給模型提供外部知識庫模型
- 什麼是大語言模型(LLM)?模型
- 01-大語言模型發展模型
- 大語言模型快速推理: 在 Habana Gaudi2 上推理 BLOOMZ模型OOM
- 先知:AI將在一兩年內超過人類語言能力AI
- Benedict Evans:Android將走向何方?Android廠商的出路在哪裡?Android
- 與APT的十年博弈 下一步棋將子落何方?APT
- GPT大語言模型Alpaca-lora本地化部署實踐【大語言模型實踐一】GPT模型
- Python 為何能坐穩 AI 時代頭牌語言PythonAI
- 大模型時代的AI之變與開發之根大模型AI
- 本地部署FastGPT使用線上大語言模型ASTGPT模型
- 探究大語言模型的思維方式模型
- 大語言模型湧現欺騙能力模型
- 改進大語言模型的最全方法!模型
- 擁有“意識”的AI:如何讓大語言模型具備自我意識?AI模型