來自駭客新聞(Hacker News)的一個討論帖子,主題是關於一個名為"Lamini"的人工智慧記憶調整技術,它能夠顯著減少幻覺10 倍
- 在AI領域,幻覺通常指的是模型生成的錯誤或不準確的輸出
什麼是Lamini?
Lamini透過訓練大量的基於事實的LoRA(Learning with Adapters)模型來實現零損失,然後使用RAG(Retrieval-Augmented Generation)技術為查詢選擇最合適的LoRA。
- Lamini Memory Tuning 是一種將事實嵌入 LLM 的新方法,可提高事實準確性,並將幻覺減少到以前無法達到的水平--對於一家財富 500 強客戶而言,Lamini Memory Tuning 使其準確率達到 95%,而其他方法的準確率僅為 50%。幻覺從 50% 減少到 5% 。
- Lamini Memory Tuning 是一項研究突破,它克服了人工智慧世界中一個看似矛盾的問題:在實現精確的事實準確性(即無幻覺)的同時,保持了使 LLMs 首先具有價值的泛化能力。
- 這種方法需要在任何開源 LLM(如 Llama 3 或 Mistral 3)之上,用精確的事實調整數百萬個專家介面卡(如 LoRA)。如果目標是準確獲取羅馬帝國的事實,那麼 Lamini Memory Tuning 將建立凱撒、渡槽、軍團以及您提供的任何其他事實方面的專家。受資訊檢索的啟發,該模型在推理時只從索引中檢索最相關的專家,而不是所有的模型權重,因此延遲和成本大大降低。高精確度、高速度、低成本:有了 Lamini Memory Tuning,您無需做出選擇。
準確性非常重要?
幻覺:準確性與創造力:
駭客新聞一些使用者擔心這種技術可能使AI變得更像全文搜尋引擎,而不是具有創造性的智慧系統。
1、這樣做不是讓“人工智慧”變得更沒創意嗎?這種技術反而更像是全文搜尋!
關鍵是什麼讓一些資料成為“事實”?
- 如果將所有內容都寫在訓練資料中,那麼最終,所有內容不都會被視為事實嗎?
這種大模型LLM 將擁有 100% 的準確性和 0% 的創造力。
2、“幻覺”是大語言模型的創造力體現,這也是它們最有用的地方。
我們想要更多幻覺:
- 我們已經有了更簡單的搜尋引擎系統來搜尋和複述事實。
- 我們需要更智慧的幻覺,它們與資料一致並延伸,而不是與資料相沖突。
其他觀點:
1、有些人不希望他們的語言模型具有任何創造力。
2、大多數宣傳的“人工智慧”商業用途都是美化了的搜尋?
3、聽起來像是壓縮
幻覺帶來創新思路
LLM在生成文字時,有時會產生一些出乎意料、與訓練資料不完全一致的內容,這種"幻覺"現象往往蘊含著新穎獨特的想法和觀點。
在詩歌、小說、程式設計、設計、哲學思考等創作領,,這些意想不到的元素可以為作者提供新的靈感,激發創造力,幫助他們跳出傳統思維模式,創作出具有創新性和獨特性的作品。
banq注:透過與大模型互動,你能與之一同進入思想探險,如同進入很深的兔子洞,如同你在進入一個異度空間探險,過去,只有你孤獨一人,但是現在有一個類似寵物的陪伴,它有它的識別和感知能力,它能夠在你意想不到的地方幫助你。
或者你以為它產生了幻覺,但是過幾天想想它的提議,也許是一個值得一試的方向,你唯一任務是將幻覺變成創意,落地為邏輯語言。
為何準確性越高,創造力越低?
- 因為準確性會引入特定上下文 情況場景,這樣你的思路就被限定在這個上下文中,無法顧及考慮進入其他上下文可能性,造成燈下黑,身在廬山不識廬山真面目,無法發現房間裡有頭大象,睜眼瞎。
- 而如果沒有100%準確性,那麼幻覺就出現了,這說明你沒有完全進入特定上下文,身在曹營心在漢,這時候,你還能考慮其他情況,這在探索未知領域,創造新事物時特別有用。