比爾-蓋茨說,人工智慧系統的擴充套件還需要兩次迭代,之後的下一個重要領域是元認知(metacognition),即人工智慧可以對其任務進行推理。
蓋茨在採訪中說了一些關於元認知的有趣話:“我看到我們明年會在這方面取得進展,但之後的一段時間內我們無法完全解決這個問題。”
比爾:
最大的前沿領域並不是擴充套件。
我們在擴充套件方面可能還需要再轉兩圈曲柄,並在合成資料方面取得非常好的成績,我們可能還能再擴充套件兩倍。
這不是最有趣的層面。
最有趣的層面是我所說的元認知,即理解如何從廣義上思考問題
也就是說:
- 這個答案有多重要?
- 我如何檢查我的答案?
- 有哪些外部工具可以幫助我解決這個問題?
如今的整體認知策略是如此瑣碎,它只是透過不斷的計算按順序生成每個標記,而這種方法竟然還能奏效,實在令人震驚。
它不會像人類一樣先後退一步,然後整體想 "好吧,我要寫這篇論文,我想寫的是這個。我要把一些事實寫進去。下面是我想做的總結"。
因此,當你遇到各種數學問題,比如數獨謎題時,你就會發現這種限制,因為只要先生成左上角的東西,就會導致超過一定複雜度的問題都會出錯。(即人工智慧可能會陷入區域性最優解,而無法找到全域性最優解。這是對應於缺乏對整體的深入理解和規劃能力。)
因此,我們將獲得規模上的優勢,但與此同時,改變底層推理演算法的各種行動,從我們現在擁有的普通推理演算法到更像人類的元認知,這才是大前沿。
現在還很難預測這一切會以多快的速度發生。我看到明年我們會在這方面取得進展,但之後一段時間內我們還無法徹底解決這個問題。
所以,你的天才會變得更容易預測。
現在,在某些領域,在一些封閉的領域,我們已經能夠在一些數學甚至一些健康型別的領域顯示出極高的準確性,但開放性的東西需要在元認知方面取得普遍的突破。
網友討論:
1、除非AI具備某種元認知,否則它們不會擅長數學
2、比爾否定了合成資料的潛力,他是錯誤的:
- Abacus Embeddings,對位置嵌入進行簡單調整,使 LLM 能夠進行加法、乘法、排序等。我們僅針對 20 位加法進行訓練的 Abacus Embeddings 幾乎完美地推廣到 100 多位: https://x.com/SeanMcleish/status/1795481814553018542
- Anthropic 的產品負責人 Michael Gerstenhaber 表示,這些改進是架構調整和新訓練資料(包括 AI 生成的資料)的結果。具體是哪些資料?Gerstenhaber 不願透露,但他暗示 Claude 3.5 Sonnet 的大部分優勢都來自這些訓練集。
- 大模型不再只是“在網際網路上接受培訓”:https://allenpike.com/2024/llms-trained-on-internet
- 新的高質量資料集:https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1
- 經過合成訓練的 7B 數學模型在數學上擊敗了 64 發 GPT4:https://x.com/_akhaliq/status/1793864788579090917 ?s=46&t=lZJAHzXMXI1MgQuyBgEhgA
- 研究人員表明,透過在訓練集中保留舊的人類資料和新的合成資料,可以輕鬆避免模型崩潰:https://arxiv.org/abs/2404.01413
- 透過合成任務教授語言模型以減少幻覺:https://arxiv.org/abs/2310.06827 ?darkschemeovr=1
- 在 Midjourney 影像上訓練的穩定擴散 lora:https://civitai.com/models/251417/midjourney-mimic
- IBM 關於合成資料:https://www.ibm.com/topics/synthetic-data
- 資料質量:與現實世界的資料不同,合成資料消除了處理現實世界中正在編譯的資料時可能出現的不準確性或錯誤。如果提供適當的變數,合成資料可以提供高質量和平衡的資料。人工生成的資料還能夠填充缺失值並建立標籤,從而為您的公司或企業提供更準確的預測。
- 合成資料可能比真實資料更好:https://www.nature.com/articles/d41586-023-01445-8
- 使用合成字幕和影像嵌入增強視覺語言模型:https://arxiv.org/pdf/2403.07750
我們的方法採用預訓練的文字到影像模型,從 LLM 生成的字幕合成影像嵌入。儘管文字到影像模型和 VLM 最初是在相同資料上進行訓練的,但我們的方法利用影像生成器建立新穎構圖的能力,從而生成超出原始資料集限制的合成影像嵌入。大量實驗表明,我們在合成資料上進行微調的 VLM 實現了與僅在人工註釋資料上訓練的模型相當的效能,同時所需的資料卻少得多。此外,我們對字幕進行了一系列分析,結果表明語義多樣性和平衡性是提高下游效能的關鍵方面。最後,我們表明在影像嵌入空間中合成影像比在畫素空間中合成影像快 25%。我們相信,我們的工作不僅解決了 VLM 訓練中的重大挑戰,而且為開發自我改進的多模式模型開闢了有希望的道路。 - 模擬可以很好地轉移到現實生活中:https://arxiv.org/abs/2406.01967v1
- 合成資料質量研究:https://arxiv.org/pdf/2210.07574
“我們系統地研究了當前最先進的文字到影像生成模型的合成資料是否適用於影像識別。我們大量的實驗表明,合成資料有利於零樣本和少樣本識別中的分類器學習,帶來顯著的效能提升併產生新的最先進的效能。此外,當前的合成資料顯示出模型預訓練的巨大潛力,甚至超過了標準的 ImageNet 預訓練。我們還指出了將合成資料應用於影像識別的侷限性和瓶頸,希望激發未來在這方面的更多研究。” - AlphaGeomertry 超越瞭解決幾何問題的最先進方法,推動了數學 AI 推理的發展:https://deepmind.google/discover/blog/alphageometry-an-olympiad-level-ai-system-for-geometry/<a>
3、在我看來,人工智慧非常擅長追趕,進步速度驚人。但追趕現狀比突破界限更容易。
從現在開始,人工智慧將以發現過程、實驗室實驗和反饋學習允許的速度發展。這意味著尋找新發現將變得更加困難,難度呈指數級增長。當然會這樣,因為唾手可得的果實早就被摘走了。
比爾蓋茲說的和我所說的有關——多模態、縮放和合成資料仍有發展空間。但真正的困難在於知識的邊界,你無法在任何書本中找到答案。
他說人工智慧需要元認知,我認為它需要向世界學習。我們也不像我們聲稱的那樣聰明,我們在外面的世界發現事物,隨著時間的推移和人口的增加,我們達到了目前的水平。但進步的引擎是從外部學習,而不是直接從大腦中合成想法。世界的豐富性使我們能夠學到很多東西並進化到我們的水平。
4、美國在 7 奈米以下晶片和前沿人工智慧研究實驗室方面具有明顯優勢,這應該意味著美國在未來幾年將繼續在人工智慧領域佔據主導地位。但中國更擅長快速建設能源,包括可再生能源和核能。因此,也許會有一個交叉點,中國的能源優勢最終會讓它在這場人工智慧軍備競賽中獲勝。這顯然對中美之間正在進行的安全競爭有著重大影響。
5、我完全同意這是 LLM 所缺失的部分。當你要求人類解決一個問題時,他們會說“好的,讓我考慮 20 分鐘,然後再回復你”。然後他們可以得出新的結論,評估它正確的可能性等等。
如果這是一個簡單的問題,他們可以直接回答。而 LLM 只是被迫對每個問題使用相同的計算輸出下一個標記。所以雖然我認為 LLM 可以做令人印象深刻的事情並且走得很遠,但它並不是智慧系統的最終狀態,因為它目前不進行這種動態推理。推理部分缺少改進。
這些實際是思路鏈的作用,而且它很有效。
- 有趣的事實:它可以不經教導就學會這一點 https://research.google/blog/characterizing-emergent-phenomena-in-large-language-models/<a>
- 它還可以透過輸出省略號等填充標記來完成可並行任務: https://twitter.com/jacob_pfau/status/1783951795238441449
6、模型每次生成下一個單詞時都會進行元認知。只是因為它不明確,所以沒有被發現。