MIT實驗警示:人類或需要人工智慧輔助才能理解複雜邏輯

徐少俠發表於2023-11-17

麻省理工實驗揭示人類的天賦缺陷

麻省理工學院林肯實驗室(MIT Lincoln Laboratory)的一項研究表明,儘管形式規範具有數學上的精確性,但人類並不一定能對其進行解釋。換句話說就是,人類在沒有工具輔助的情況下,很難準確理解複雜的邏輯。研究人員將AI在遊戲中的決策邏輯用原始公式、更自然語言化的文字以及更精確符合形式化規範的決策表進行表達。要求受試者來理解這些邏輯並回答AI遵守這些邏輯是否會獲勝。結果顯示,人類整體的正確率只有45%。參與者中有形式化方法的專家,也有非專家。但是即使是經過專業訓練的形式化邏輯專家,除了在對於自己答案更自信上表現出了統計學上的顯著性,在實際判斷正確率上,並沒有表現出太大的優勢。這一發現似乎印證了人工智慧在邏輯推理上遠超人腦的假說。人腦進化的目的在於幫助人類生存,而非處理抽象邏輯,這導致人腦在處理複雜邏輯時存在天然缺陷。相比之下,人工智慧可以透過深度學習等方法更加高效地識別複雜模式。這一研究結果為人類有限的邏輯推理能力提供了實證基礎。

軟體開發過程中的資訊損失現象

事實上,在軟體開發的過程中,從需求描述到最終編碼實現,資訊傳遞和理解的損失早已是業內公認的問題。軟體需求說明書往往存在歧義,開發人員根據自身理解對需求進行解釋,這在資訊傳遞過程中增大了偏差。根據估計,從原始需求到軟體交付,每傳遞一次可能就損失至少15%左右的資訊量。程式碼複審過程中也存在類似問題。軟體開發是一個高度邏輯化的過程,開發人員需要處理大量複雜的業務邏輯。而人腦處理邏輯的侷限性,導致軟體開發各階段存在嚴重的資訊缺失、誤解和邏輯錯誤。這也是軟體開發成本和開發效率無法進一步最佳化的首要原因之一。

決策表在提升邏輯理解力方面也存在侷限

麻省理工的研究還發現,即使使用決策表這樣看似科學和系統的工具來呈現複雜邏輯,人類準確理解邏輯的能力並沒有明顯提高。無論使用哪種方式提供邏輯表達文字,人類的整體判斷正確率都在45%左右。決策表本意是減少歧義和提高邏輯表達的精確度,但對於人腦來說,大量因素組合形成的複雜邏輯依然難以處理。構建由4個條件變數構成的卡諾圖幾乎是大部分人的上限,達到6個時已經進入三維模式。複雜邏輯表示式化簡這個領域一直是一個人類表現不佳的工作。這進一步證明瞭人腦處理複雜邏輯時的天然侷限性,即使使用看似科學的表達工具也無法克服。

軟體行業亟須開發輔助邏輯分析的新工具

鑑於人腦在理解複雜邏輯方面的侷限,軟體行業迫切需要開發新的方法和工具,來輔助人類進行邏輯分析,彌補因不準確理解邏輯而導致的種種問題。目前業界已經嘗試透過程式碼生成等自動化手段來降低開發難度,但這僅是表面治標。我們需要更多能夠分析複雜邏輯、發現邏輯錯誤的資料驅動工具,並輔助人類對軟體邏輯設計和程式碼進行審查。如果不去審查程式碼邏輯,難道code review的全部意義就是縮排和換行或者分號結尾嗎?構造更有效的邏輯分析工具將推動人工智慧在複雜邏輯處理能力方面的進一步發展。軟體開發是一個資訊量極大的工作,依靠人工邏輯判斷已經難以為繼,人機合作是未來發展的必然方向。

知識的數字化是人機協作的必由之路

為了讓人工智慧輔助人類進行更好的決策,我們需要推進各行各業知識的數字化和結構化。人類積累的豐富知識長期以來依賴人與人之間的交流傳播,這導致知識本身的不精確和難以機器處理。以中餐烹飪菜譜為例,許多過程依賴“適量”、“少許”、“翻炒片刻”這樣模糊的語言描述,這對人工智慧來說是難以轉換為可執行的邏輯。知識的數字化不僅能增強人機協作的效率,還將促使人工智慧的發展,因為機器學習需要大量高質量的結構化資料來訓練演演算法模型。我們需要系統地建立各個領域的知識圖譜,進行知識計算化。

輔助而不是替代,我們需要寬容

人工智慧在推理邏輯上目前確實優於人腦,但真正的智慧需要同情心、道德和創造力的配合。因此,我們應開發智慧工具來輔助人類,而非完全依賴和替代人類。在人機互補中,人類應發揮獨特的優勢,如道德判斷、創造力等,以建立和諧共生的人機關係。如果人類對技術過度依賴,反而會減弱這些獨特的人類優勢。此外,我們還需要建立機器倫理學,讓人工智慧的發展符合道德規範,防止演演算法偏見等負面影響。
面對科技和人工智慧帶來的變革,我們需要保持開放和寬容的心態,否則可能會對新事物產生過度依賴或導致牴觸情緒。相較於單純追求技術進步,我們更需要關注人性的發展,在科技變革中發現併發掘人性的可能。人工智慧時代的核心價值觀應該是人機協作、共生共榮,而非置人於技術之下。我們需要樹立積極的心態,在變革中發現機遇並發展自身,與科技共同擴充套件生命可能。

相關文章