人工智慧(AI)一度是科學界並不受重視的一項技術,在過去的二十年裡卻得到了飛速的發展。絕大多數人現在都不得不承認我們的生活已經無法離開智慧手機和Siri了,貌似人工智慧無所不能的特質使它無聲地進入了我們生活的每一個角落,從華爾街的機器人顧問和犯罪定位安全攝像頭,到谷歌的BigQuery大資料分析和人工智慧程式Watson進入醫學領域的診斷。

儘管可能導致人類社會經濟和文化結構的倒退也是一個潛在的事實,但在許多無法預料到的領域中,人工智慧能夠幫助提高我們的生活效率。未來生活研究所的口號總結得非常簡潔時尚:“技術從來沒有像現在這樣使生活更加繁榮昌盛…亦或是自取滅亡。”人類是創造者,但是我們能否一直把這些革命性的創造掌握在手心裡嗎?

對更多的普通大眾而言,人工智慧就僅僅是人工智慧,但這隻對了一部分。現如今,人工智慧的發展有兩項基本標準——ANI(狹義人工智慧)和AGI(廣義工智慧)。ANI常被稱作“弱人工智慧”,是這兩個標準中的“專家”,它被用來實現各種特殊的功能。我們周圍的大多數技術(包括Siri)都在ANI的範圍內。AGI則是下一代的ANI,它是人類夢想中的人工智慧的型別,能夠創造出實現人類意識的機器。

現在很熱門的話題是機器將來會不會變得有意識和知覺,至少就像人類所能夠感覺到的那樣。在互聯的世界裡,分享一個人的觀點變得非常便捷,每個人都必然會遇到對未來10年到1000年甚至到永遠的預言。但是我們怎麼才能知道哪些觀點是根據研究和經驗得到的,而哪些又是像古老的電話遊戲一樣的來自於網路中的胡說八道?

我決定深入人工智慧世界,採訪了活躍在這個領域的12位權威專家和研究人員,瞭解各種想法和看法,去尋找AGI的未來以及可能存在的風險。儘管對類似危機的看法差別很大,但卻有一個共識,那就是創造出有意識的機器是完全有可能的。

創造出有意識的機器是完全有可能的

Helgi Helgason博士相信“人類智慧和意識誕生於自然之中,它是從物理和化學反應中產生的,如果我們這麼期待的話,我沒有任何理由懷疑我們不能在人類創造的系統中複製這個過程。”他的陳述是普遍的一個想法,Andras Kornai博士也認同地聲稱“這樣的事情是有可能從蛋白質構建起來的,很明顯沒有什麼地方需要魔法。”

而布達佩斯技術研究所的教授Kornai避開了“魔法”的說法,不止一位的專家表示我們仍然不清楚人類意識是怎麼出現的,這就像是擺在AGI發展路途上的一個實際存在的障礙。就像Skeptic雜誌的創始者Michael Shermer博士所預見的那樣,“我覺得在不久的將來無法得到解決,因為人類大腦太過複雜而我們又還不太瞭解意識是如何通過神經元電訊號的傳遞產生的,但是長期來說這一定會得到解決。”

謝菲爾德大學的Noel Sharkey博士認為因為我們還不瞭解意識產生的原理,我們就不知道這能不能夠在一臺機器上重新實現。“這個問題不太可能得到答案,因為意識的原理仍然籠罩在一團迷霧之中,還沒有任何充足的科學理論或者模型。非常確定的談論這一點的人們都是痴心妄想的。說意識不能在計算機上被創造出來應該是沒有道理的,但是就算我們明白了意識到底是什麼之後,也仍然不知道它能否在生物體外發生。” Sharkey說。

其他人,包括烏特勒支大學的Medhi Dastani博士和美國伍斯特理工學院的Eduardo Torres Jara博士,都認為我們可以創造出這樣的意識,但問題是如果想要這樣的一臺機器能夠體驗到和人類一樣的“意識”,現在看來似乎是不太可能的事情。

人工智慧樂觀者與悲觀者

沒有人能夠預知未來,但是基於這些研究者們做一些推測的話,最偉大的發明將會在2021年到2060年間或者未來的10到50年裡出現。如果這些預言得到證實,就會給我們的社會整體帶來許多的倫理方面的問題。不止Elon Musk一個人表示了對人工智慧危險的擔憂——牛津大學的Nick Bostrom和加利佛利亞大學的Stuart Russell就是許多持此類觀點的一份子——但是還有不同意近期的這些人工智慧威脅論的聲音。

在採訪的12位研究人員中,有三位顯得與眾不同。採訪的大部分的專家都擔心現在已經存在的金融經濟的危害,這可能會無意識地加劇極端情況的前進,導致一系列的更大的貧富差距和環境破壞,例如汙染和資源短缺。

“近期的人工智慧引起的危機可能最終成為現在社會中已經存在的一樣的危機。如果我們不能走出基於工薪的經濟模式的話,人工智慧的自動化會提高生產力,卻不會改善我們的生存條件。”認知科學家Joscha Bach博士說。Helgason博士表示這是事實而不僅僅是危機,教育政策中應該已經考慮到這種風險。

Kornai博士和阿肯色大學的Daniel Berleant博士都預見到了自動化金融演算法被它們的所有者們用來賺錢所帶來的潛在的災難性問題,沒有任何“人類性”的目標。Dastani博士擔心智慧機器的計算能力會超過人類。他強調“自動計算機系統互動的不斷增加可能會引起難以預測並且無法追蹤的不良後果。”金融監管和經濟結構的重新設計是這些問題最明顯的解決方法,但是更復雜的細節似乎仍需要充分的研討,尤其是在公共政治領域。

類似的擔憂經常在媒體中出現,反殺手機器人的積極分子Sharkey博士和布蘭迪斯大學的Michael Bukatin博士都認為自動化機器要麼超智慧化自我戰鬥並且在這個過程中消滅我們,要麼引起猖獗的自動化武裝衝突,產生正當的威脅。

其他的看法認為人工智慧是無害的(永遠都是),相反,人工智慧背後的人類才是難以預測而且不可信賴的,就為了獲得金錢或者權利這些短視的目標。Michael Shermer博士預言近期未來最有可能的人工智慧危機就包括“壞人為了他們的目的操控人工智慧,人工智慧本身並沒有罪,它們危害人類這樣的事不會發生。”

如果自主能力和意識齊頭並進的話,Eduardo Torres Jara博士就會認為前者的威脅性更大——儘管他並不能預言這就會在不久的將來發生。“很難相信人工智慧會成為現實的危險。任何的高新技術都會有它自己的風險。例如,太空梭的飛行控制可能會失敗而引起一場事故,然而用於控制太空梭的技術本身卻不是危險的。至於機器人,我們可能並不希望擁有武器化的自動機器人因為“自主能力”是並不可靠,這樣即使在機器人失敗的情況下後果也不會嚴重,” Torres說。

儘管少得多的研究者們站在相反的立場上,有一些研究者——包括喬治梅森大學的Robin D. Hanson博士——對於近期的人工智慧威脅論表示,完全沒有危險。我們可能稱呼這些為人工智慧的樂觀分子。

我們敢超越未來的20年來說人工智慧的風險會發生在未來10年裡嗎?儘管一些接觸的商業家們像比爾蓋茲(還有Elon Musk宣傳的人工智慧的宣告)發表了一些宣告,大多數的研究者們都能理解清楚闡述這種深遠的風險所帶來的憂慮,而一些人則放棄給出任何答案。在某種程度上,這是一種明智的選擇,深刻的歷史教訓告訴我們未來經常和我們現在所想象的完全不同。

另一方面,正是我們現在的想象和行動塑造了未來的樣子。對人工智慧危機的預防做出的努力和解決方案可能會為短期的未來打下基礎,把我們的目光放到更遙遠的未來想象人工智慧可能帶來的潛在的黑暗並不完全是無稽之談。在大多數情況下,類似的研究者們傾向於只對人工智慧危機給出在短期內類似簡短的回答

從腐敗的領導者們正在通過法律的實施來壓制人工智慧的影響,到我們不能完全理解的無法解釋也無法證實的人工智慧,潛在的危機多種多樣並且讓人感到深深的憂慮。一些研究者們懷疑人工智慧遲早會改變人類的工作和生活——幸運的是我們還有時間來控制著它的發展。

作者:Daniel Faggella

編譯:人工智慧學家