「這相當於在理論上,兩層神經網路在理論上可以擬合任何資料,我們就盲目相信並應用在所有場景中。」
論文連結:https://arxiv.org/abs/2402.12875
AC⁰:僅使用 AND、OR、NOT 門,深度為常數,通常適用於比較簡單的平行計算問題。 TC⁰:擴充套件了 AC⁰類問題,增加了多數決定門(MAJORITY gates),能處理更復雜的平行計算問題。
Base 模式:模型直接生成結果,目標是最小化預測結果與真實值之間的差距。 CoT 模式:在每個問題上為模型手動設計了思維鏈,評估模型是否能夠正確預測整個思維鏈中的每個 token。 Hint 模式:為模型提供部分提示資訊,幫助其更好地生成中間步驟。對於 Base 模式和 Hint 模式,直接評估最終答案的準確性。
儘管 CoT 非常有用,但我並不完全同意僅靠盲目擴充套件它就能解決所有問題。論文中提出了一種通用理論 —— 我們可以顯式地構建 Transformer 的權重,使其更好地適應特定任務。雖然模型的深度可以保持常數,但 CoT 的長度可能會非常長,而這種權重能否透過梯度下降演算法學到,仍是未知數。
我還記得你曾說過,LLM(GPT)不是 AI,也永遠無法達到 AGI,因為它無法進行推理。
然而,現在透過 CoT+RL,它可以推理了。這篇論文只是證明了其他人一直以來所做的是正確的,一如既往。
為什麼 Meta 反對通往 AGI 的主流路徑?難道只是因為你個人不喜歡 Google 和 OpenAI 嗎?