編輯 | X
人工智慧(AI)在過去幾年中以驚人的速度發展。一些科學家現在正著眼於超級人工智慧(Artificial Superintelligence,ASI)的發展,這是一種不僅超越人類智慧,而且不受人類學習速度限制的 AI。
但如果這個里程碑不僅僅是一項了不起的成就呢?如果它也代表了所有文明發展的一個巨大瓶頸,一個如此具有挑戰性的瓶頸,以至於阻礙了它們的長期生存,該怎麼辦?
AI 是否會成為宇宙的「大過濾器」——一個難以克服的門檻,阻止大多數生命進化成太空文明?
這個概念或許可以解釋為什麼搜尋地外文明計劃(SETI)尚未發現銀河系其他地方先進技術文明的跡象。
英國曼徹斯特大學天文學和天體物理學教授 Michael A. Garrett 在《Acta Astronautica》上發表題為《Is artificial intelligence the great filter that makes advanced technical civilisations rare in the universe?》的觀點文章。
AI 是否會成為宇宙的「大過濾器」
大過濾假說最終是費米悖論的解決方案。這就提出了一個問題,為什麼在一個廣闊而古老、足以容納數十億個潛在宜居行星的宇宙中,我們沒有發現任何外星文明的跡象。
大過濾假設表明,文明的進化時間表中存在難以克服的障礙,阻止它們發展成為太空實體。因此,人類可探測到的地外生命極其罕見。
ASI 的出現可以成為這樣一個過濾器。AI 的快速發展可能會導致 ASI,它可能與文明發展的關鍵階段相交——從單行星物種向多行星物種的轉變。
這就是許多文明可能會陷入困境的地方,AI 的進步速度遠遠快於我們控制它,或可持續探索和居住太陽系的能力。
AI(尤其是 ASI)的挑戰在於其自主性、自我放大性和改進性。它具有增強自身能力的潛力,其速度超過了我們在沒有 AI 的情況下的進化時間表。
出現嚴重錯誤的可能性是巨大的,導致生物文明和 AI 文明在有機會成為多行星之前就崩潰。例如,如果各國越來越依賴並將權力讓給相互競爭的自主 AI 系統,那麼軍事能力就可能被用來以前所未有的規模進行殺戮和破壞。這可能會導致我們整個文明的毀滅,包括 AI 系統本身。
在這種情況下,估計科技文明的典型壽命(typical longevity)可能不到 100 年。這大約是從能夠在恆星之間接收和廣播訊號(1960 年)到估計在地球上出現 ASI(2040 年)之間的時間。與數十億年的宇宙時間尺度相比,這個時間短得驚人。
這一估計,當插入德雷克(Drake)方程的樂觀版本時——該方程試圖估計銀河系中活躍的、可交流的外星文明的數量——表明,在任何給定時間,那裡只有少數智慧文明。此外,像我們一樣,它們相對溫和的技術活動可能使它們很難被發現。
警鐘
這項研究不僅僅是一個潛在厄運的警示故事。它敲響了人類的警鐘,要求人類建立強有力的監管框架來指導 AI(包括軍事系統)的發展。
這不僅僅是為了防止 AI 在地球上被惡意使用;它還涉及確保 AI 的進化與我們物種的長期生存保持一致。這表明我們需要投入更多資源,儘快成為一個多行星社會——這一目標自阿波羅計劃的鼎盛時期以來一直處於休眠狀態,但最近因私營公司的進步而重新點燃。
正如歷史學家尤瓦爾·諾亞·赫拉利(Yuval Noah Harari)指出的那樣,歷史上沒有任何東西能讓我們為將無意識的超級智慧實體引入地球所帶來的影響做好準備。最近,AI 自主決策的影響導致該領域的知名領導人呼籲暫停 AI 的發展,直到引入負責任的控制和監管形式。
但即使每個國家都同意遵守嚴格的規則和監管,流氓組織也很難被遏制。
自主 AI 在軍事防禦系統中的整合必須成為特別值得關注的領域。已經有證據表明,人類將自願放棄重要的權力給能力日益增強的系統,因為它們可以在沒有人為干預的情況下更快、更有效地執行有用的任務。
這意味著我們已經危險地接近自主武器超越道德界限並規避國際法的懸崖。在這樣的世界中,為了獲得戰術優勢而將權力交給 AI 系統可能會無意中引發一系列迅速升級、極具破壞性的事件。一眨眼的功夫,我們星球的集體智慧就可能被消滅。
人類正處於其技術軌跡的關鍵時刻。我們現在的行動可以決定我們是否成為一個持久的星際文明,或者屈服於我們自己的創造物帶來的挑戰。
使用 SETI 作為我們審視未來發展的鏡頭,為關於 AI 未來的討論增加了一個新的維度。我們所有人都有責任確保,當我們伸手摘星時,我們這樣做不是為了其他文明的警示,而是作為希望的燈塔——一個學會與 AI 一起繁榮發展的物種。
參考內容:https://phys.org/news/2024-05-ai-blame-failure-contact-alien.html