據《每日郵報》報導,一家主要的安全智庫蘭德公司(以下簡稱“蘭德”)警告稱,最早在2040年,人工智慧就可能發動造成人類毀滅的核戰爭。蘭德稱,催生“世界末日人工智慧”機器的技術發展,可能會促使一些國家利用它們的核武庫冒險。

在冷戰期間,被稱作“相互確保摧毀”的狀態,維持了兩個超級大國之間不穩定的平衡。

然而,人工智慧的進步可能意味著“相互確保摧毀”狀態遭到破壞,從而削弱對方反擊的潛力,而且,這種趨勢可能無法阻止。

冷戰期間相互確保摧毀維持了超級大國之間脆弱的平衡

 

蘭德稱,未來數十年,人工智慧的進步,可能破壞“相互確保摧毀”對擁核國家的約束力。

就像在20世紀40年代和50年代的冷戰時期,未來核衝突的每一方都有理由擔心對手獲得技術優勢。

改進的人工智慧技術,加上更多的感測器和開源資料,可以使各國相信他們的核能力是脆弱的。

報告稱,這可能會導致它們採取更激進的措施,跟上美國這樣的競爭對手。

蘭德研究人員、報告共同作者安德魯·洛恩(Andrew Lohn)表示,“有些專家擔心,人們越來越依賴人工智慧會導致新型的災難性錯誤。”

各國都面臨在技術真正成熟前使用人工智慧的壓力。因此未來數十年要保持戰略穩定性極端困難,所有核大國必須參與新體系的形成,以降低核風險。

報告稱,另一種令人擔憂的情況是,指揮官可能根據人工智慧助手提供的建議作出發動攻擊的命令,而人工智慧助手接收的資訊本身可能就是錯誤的。

除了提供糟糕的建議外,這樣的系統也可能容易受到黑客攻擊,從而引發了惡意第三方發動第三次世界大戰的可能性。

儘管如此,有人認為人工智慧可以通過提高情報收集和分析的準確性,來提高未來的戰略穩定性。

專家表示,對用於監測和解釋對手行為的分析過程進行改進,可以減少可能導致對抗意外升級的錯誤計算或曲解。

鑑於未來的改進,最終人工智慧系統有可能發展出比人類更不容易出錯的能力,因此有助於保持長期的戰略穩定性。

根據與在核問題、政府部門、人工智慧研究、人工智慧政策和國家安全方面的專家舉行的一系列研討會期間收集的資訊,蘭德研究人員,得出了上述結論。

這項研究是展望2040年重大安全挑戰的更廣泛研究活動的一部分,考慮了政治、技術、社會和人口趨勢的影響。

“人工智慧會增加核戰爭的風險?”研究的全部資料釋出在蘭德上。

自 鳳凰科技