霍金的警告:人工智慧是人類的終極敵人

PSI內容合夥人發表於2015-09-10
近日,著名物理學家斯蒂芬·霍金在Google的ZeitgeistMinds演講中,回顧了地球上智慧的起源和命運,並警告說,人工智慧可能成為人類最大的威脅。他認為,人工智慧的發展無可限量,應該儘早遏制AI軍備競賽,讓AI向符合人類利益的方向發展,以免人類在未來受到機器的奴役。以下為霍金的演講視訊。(字幕由機器之心翻譯出品) [embed]https://v.qq.com/iframe/preview.html?vid=q0165xt1gp0&width=500&height=375&auto=0[/embed]
演講全文
今天,我想談談在我們的宇宙中智慧的起源與命運。我在這裡說的一切,都包括人類在內。即使這個物種的大部分行為,在歷史長河中都顯得相當愚蠢,而且對自己種族的維繫毫無益處。
我們都知道,隨著時間流逝,事物變得越來越混亂。熱力學第二定律告訴我們,總混亂度或者“熵”總是隨著時間增加。但是,這裡面有一個漏洞,讓一個小系統能減少一定混亂程度,只要它能使周圍環境的混亂程度增加得更。最初的宇宙荒涼死寂,如今已經進化出能夠利用這種漏洞的實體,同時在不斷自我複製,我們把這種實體稱為“生命”。資訊是生命之本,DNA把生命的藍圖代代相傳,從此,複雜的生命形態通過感覺器官輸入資訊,比如眼睛和耳朵,然後在大腦或其他系統裡處理資訊,從而弄清楚如何在這個世界中行動與交流,比如把資訊輸出到肌肉。 在138億年宇宙歷史中的某個時刻,一些美妙的事情發生了,這種資訊處理髮展出相當高的智慧程度,於是生命出現了意識。於是,我們的宇宙甦醒了,開始意識到自我的存在。 我說完一段智慧的簡史了,接下來該說什麼呢?有人認為,今天的人類是進化的頂峰,這已經足夠好了。我不同意。一定有一些非常特別的東西,關係到我們宇宙的邊界條件。沒有什麼比“沒有邊界”更特別的了。人類奮鬥也應該是沒有邊界的。我認為,蚯蚓和計算機之間沒有什麼本質的差別。我也相信,進化還意味著蚯蚓的大腦和人類的大腦也沒有什麼本質區別。因而,計算機在原則上能夠趕上人類智慧,甚至是超越我們。直到今天,計算機的發展一直遵循摩爾定律,即計算機的速度和記憶體每隔兩年就會加倍。人類智慧或許也可以增長,因為有基因工程,但不會那麼快。結果就是,計算機很有可能趕上人類智慧,就在接下來的一百年內。如果那真的發生了,我們得確保計算機跟我們目標一致。 當然,你很容易把高智慧的機器當作科幻小說裡的情節,但這是一個錯誤,而且可能會是我們犯下的最嚴重的錯誤。人工智慧研究正在飛速前進。最近的一些里程碑,比如無人駕駛汽車、在“Jeopardy!” 節目上勝出的計算機以及個人數字助理Siri、Google Now和Cortana,都在預示著一場IT軍備競賽。這場競賽的推手,是前所未有的投資和建設,其基礎是日益成熟的理論依據。這些成就,跟未來的創造相比,或許都會黯然失色。 未來的潛在得益是無窮的,文明的一切都來源於人類智慧。我們無法預測未來可能實現什麼,因為人類智慧(的潛力)會被人工智慧帶來的工具所放大,但根除戰爭、疾病和貧窮肯定會是每個人的首選。 成功發明人工智慧是人類歷史上最重大的事件。然而不幸的是,它也可能是最後一件,除非我們學會如何規避風險。比如說在近期內,各國軍隊都在開始一場軍備競賽,來研發自動武器系統。它能夠自動選擇並消滅目標。而聯合國卻在商討是否應下令禁止這種武器。反對自動化武器的人通常忘了一個最重要的問題,軍備競賽的目的可能是什麼?那是人類想要的嗎?你真的想讓廉價的人工智慧武器成為明天的來福槍,在黑市上被賣給犯罪分子和恐怖分子嗎?我們擔心能否長期控制永遠在發展的人工智慧系統,這意味著我們該把它們武裝起來,再防禦它們嗎?2010年,電腦化的交易系統造成了股市的閃電式崩盤。如果由電腦觸發的崩盤發生在人類防禦陣營裡,會發生什麼事呢? 現在是停止自動化武器軍備競賽的最佳時機。在未來一段時間裡,人工智慧或可使我們的工作自動化,帶來繁榮與平等。著眼未來,到底會發生什麼,是不可限量的。沒有物理定律能把粒子組織起來,實現比大腦更先進的計算功能。人類大腦的結構是最先進的,爆炸式的轉變是有可能發生的,雖然可能並不會像電影裡的情節一樣。歐文·古德在1965年提出,擁有超人智慧的機器可以不斷改良它們自身的設計,最終引發Vernor Vinge所說的“奇點”。可以想象這種技術比金融市場更為智慧,比人類研究者更有創造力,比人類領導者更長袖善舞,或許還能用我們無法想象的武器壓制人類。然而,人工智慧的短期影響取決於它將被誰控制,長期影響則取決於它能否被控制。 總而言之,超越人類的人工智慧可能是福祉,也可能是大難臨頭,所以我們應該未雨綢繆。如果一個更先進的外星文明發來一條資訊說“我們會在幾十年裡來到地球”,難道我們只回答一句“好的,到了再告訴我。我們會開著燈的?”大概不會。但面對人工智慧,我們或多或少就是這樣回答的。除了一小部分非營利機構外,幾乎沒有任何嚴肅的研究聚焦這些話題。幸運的是,時代在改變。科技先驅們如埃隆 · 馬斯克、比爾·蓋茨和史蒂夫 · 沃茲尼亞克,他們跟我懷有相同的憂慮,於是人們開始進行風險評估,開始關注人工智慧的社會影響。這些都在慢慢興起。 許多世界領先的人工智慧研究者最近簽了一封公開信,呼籲人工智慧的發展目標要重新界定,從簡單原始的不定向創造轉為定向創造,旨在造福全人類。我是未來生命研究所的科學諮詢委員會成員,我們剛剛發起一個全球研究專案,著力於讓人工智慧造福人類。剛剛發現火的存在時,我們總是搞得一團糟,後來才發明了滅火器。有了更強的技術,如核武器、合成生物學和強大的人工智慧,我們應該提前規劃,從而在一開始就走上正軌。因為那可能是我們能把握的唯一機會。 我是一個樂觀主義者,不相信邊界的存在。我認為人的一生能有無限的成就,生命和智慧也可以在這個宇宙中無限發展。這意味著,我剛剛說的關於智慧的短暫歷史,並非故事的結束,而是一個開始。我希望生命還能在宇宙中流芳百世。 未來是一場競賽,一方是日益發展壯大的技術,另一方是我們使用技術的智慧。讓我們確保人類智慧能夠勝出。 感謝您的聆聽。 字幕由機器之心翻譯出品。聽譯:Joyce,時間軸:汪汪。

相關文章