深度長文:表面繁榮之下,人工智慧的發展已陷入困境

dicksonjyl560101發表於2018-12-03

深度長文:表面繁榮之下,人工智慧的發展已陷入困境

 

 

http://blog.sina.com.cn/s/blog_cfa68e330102zbyx.html

 

 

來源:《連線》雜誌

 

現在,深度學習面臨著無法進行推理的困境,這也就意味著,它無法讓機器具備像人一樣的智慧。但是真正的推理在機器中是什麼樣子的呢?如果深度學習不能幫助我們達到目的,那什麼可以呢?文章作者為克萊夫·湯普森(@pomeranian99),原標題為“How to Teach Artificial Intelligence Some Common Sense”。

 

五年前,總部位於倫敦的人工智慧公司DeepMind的程式設計師,興奮地看著人工智慧自學玩一款經典的街機遊戲。他們在一項看似“異想天開”的任務上使用了當今最熱門的技術——深度學習——掌握了Breakout。

 

這是一款雅達利(Atari)開發的遊戲,在遊戲中,你需要用移動下方的平板,把球彈起,然後把上方的所有磚塊都打消失。

 

 

深度學習,是機器進行自我教育的一種方式;你給人工智慧提供大量的資料,它會自己識別模式。在這個遊戲中,資料就是螢幕上的活動——代表磚塊、球和玩家平板的塊狀畫素。

 

DeepMind 的人工智慧,一個由分層演算法組成的神經網路,並不知道任何關於Breakout的工作原理、規則、目標,甚至如何發揮它都不清楚。編碼器只是讓神經網路檢查每個動作的結果,每次球的彈起軌跡。這會導致什麼?

 

事實證明,它會掌握一些令人印象深刻的技能。在最初的幾場遊戲中,人工智慧只是控制下方的平板四處亂晃。但是玩了幾百次之後,它已經開始準確地將球彈起了。到了第600場比賽時,神經網路使用了一種專業的人類Breakout遊戲玩家使用的動作,鑿穿整排磚塊,讓球沿著牆頂不停跳躍。

 

“這對我們來說,是一個很大的驚喜,”DeepMind的執行長德米斯·哈薩比斯(Demis Hassabis)當時說道。“這一策略完全來自底層系統。”

 

人工智慧,已經顯示出它能夠像人類一樣進行異常微妙的思考,掌握Breakout背後的內在概念。因為神經網路鬆散地反映了人腦的結構,所以從理論上說,它們應該在某些方面模仿我們自己的認知方式。這一刻似乎證明了這個理論是正確的。

 

去年,位於舊金山的一家人工智慧公司Vicorance的電腦科學家,提供了一個有趣的現實檢驗。他們採用了一種類似DeepMind所用的人工智慧,並在Breakout上進行了訓練。

 

結果很棒。但隨後,他們稍微調整了遊戲的佈局。在一次迭代中,他們將平板提得更高了;另一次迭代中,他們在上方增加了一個牢不可破的區域。

 

人類玩家可以快速適應這些變化,但神經網路卻不能。 這個看起來很聰明的人工智慧,只能打出它花了數百場比賽掌握的Breakout的方法。 它不能應對新變化。

 

“我們人類不僅僅是模式識別器,”Vicarious的共同創始人之一、電腦科學家迪利普·喬治(Dileep George)告訴我。“我們也在為我們看到的東西建立模型。這些是因果模型——有我們對因果關係的理解。”

 

人類能夠推理,也會對我們周圍的世界進行邏輯推理,我們有大量的常識知識來幫助我們發現新的情況。當我們看到一款與我們剛剛玩的遊戲略有不同的Breakout遊戲時,我們會意識到,它可能有著大致相同的規則和目標。

 

但另一方面,神經網路對Breakout一無所知。它所能做的就是遵循這個模式。當模式改變時,它無能為力。

 

深度學習是人工智慧的主宰。在它成為主流以來的六年裡,它已經成為幫助機器感知和識別周圍世界的主要方式。

 

它為Alexa的語音識別、Waymo的自動駕駛汽車和谷歌的即時翻譯提供了動力。從某些方面來說,Uber的網路也是一個巨大的優化問題,它利用機器學習來找出乘客需要汽車的地方。中國科技巨頭百度,有2000多名工程師在神經網路人工智慧上努力工作。

 

多年來,深度學習看上去越來越好,不可阻擋地讓機器擁有像人一樣流暢、靈活的智力。

 

但是一些人認為,深度學習正在面臨困境。他們說,單憑這一點,它永遠不會產生廣義上的智慧,因為真正像人類一樣的智慧,不僅僅是模式識別。

 

我們需要開始弄清楚如何讓人工智慧具備常識。他們警告說,如果我們不這樣做,我們將會不斷地觸及深度學習的極限,就像視覺識別系統,只要改變一些輸入,就會很容易被愚弄,比如,讓深度學習模型認為烏龜就是一杆槍。

 

但他們說,如果我們成功了,我們將見證更安全、更有用的裝置爆炸式增長——比如在雜亂的家中自由行動的醫療機器人、不會誤報的欺詐檢測系統等等。

 

但是,真正的推理在機器中是什麼樣子的呢?如果深度學習不能幫助我們達到目的,那什麼可以呢?



 

 

加里·馬庫斯(Gary Marcus)是紐約大學的心理學和神經科學教授,現年48歲,戴著眼鏡,憂心忡忡。他可能是最著名的深度學習反對者。

 

馬庫斯第一次對人工智慧感興趣,是在20世紀80年代和90年代,當時神經網路還處於實驗階段,從那以後,他就一直在做同樣的論證。

 

“我不只是來晚了,而且還想在派對上撒尿,”當我在紐約大學附近的公寓遇見他時,馬庫斯告訴我。(我們也是私人朋友。)“深度學習剛開始爆發的時候,我就說‘方向錯了,夥計們!’”

 

那時,深度學習背後的策略和現在是一樣的。比方說,你想要一臺機器來自己學習識別雛菊。首先,你需要編寫一些演算法“神經元”,像三明治一樣,將它們層層連線起來(當你使用多層時,三明治會變得更厚或更深——因此是“深度”學習)。

 

你在第一層輸入一個雛菊的影像,它的神經元會根據影像是否像它以前看到的雛菊的例子而進行判斷。然後,訊號將移動到下一層,在那裡迴圈這個過程。最終,這些層會得出一個結論。

 

起初,神經網路只是盲目猜測;它或多或少地讓生活從一張白紙開始。關鍵是建立一個有用的反饋迴路。每當人工智慧沒有識別出雛菊時,那組神經連線就會削弱導致錯誤猜測的連結;如果它成功了,它會加強。

 

給定足夠的時間和足夠多的雛菊樣本,神經網路會變得更加精確。它學會了通過直覺來識別一些雛菊的模式,讓它每次都能識別出雛菊(而不是向日葵或菊花)。

 

隨著時間的推移,這一核心理念——從一個簡單的網路開始,通過重複訓練——得到了改進,似乎可以應用到幾乎任何地方。

 

但是馬庫斯從未被說服。對他來說,問題就在於一張白紙:它假設人類純粹通過觀察周圍的世界來建立他們的智力,機器也可以。

 

但是馬庫斯不認為人類就是這樣工作的。他認可諾姆·喬姆斯基( Noam Chomsky )的智力發展理論,他認為人類天生就有學習的天賦,能夠掌握語言和解釋物質世界,而不是一張白紙。

 

他指出,儘管有很多人認為神經網路是智慧的,但它似乎不像人類大腦那樣工作。首先,它們太需要資料了。

 

在大多數情況下,每個神經網路都需要數千或數百萬個樣本來學習。更糟糕的是,每次你想讓神經網路識別一種新的專案,你都必須從頭開始訓練。一個識別金絲雀的神經網路在識別鳥鳴或人類語言方面沒有任絲毫用處。

 

“我們不需要大量的資料來學習,”馬庫斯說。他的孩子不需要看一百萬輛車就能認出車輛來。更好的是,他們可以“抽象化”,當他們第一次看到拖拉機時,他們會知道它有點像汽車。他們也可以進行反事實的工作。

 

谷歌翻譯可以將法語翻譯成英語。但是它不知道這些話是什麼意思。馬庫斯指出,人類不僅掌握語法模式,還掌握語法背後的邏輯。你可以給一個小孩一個假動詞,比如pilk,她很可能會推斷過去式是 pilked。當然,她以前沒見過這個詞。她沒有接受過這方面的“訓練”。她只是憑直覺知道了語言運作的一些邏輯,並能將其應用到一個新的情況中。

 

“這些深度學習系統不知道如何整合抽象知識,”馬庫斯說,他創立了一家公司,創造了用更少的資料進行學習的人工智慧(並在2016年將公司賣給了Uber)。

 

今年早些時候,馬庫斯發表了一份關於arXiv的白皮書,認為如果沒有一些新的方法,深度學習可能永遠不會突破目前的侷限。它需要的是一種推動力——補充或內建的規 則,以幫助它對世界進行推理。



 

 

奧倫·埃齊奧尼(Oren Etzioni)經常面帶微笑。他是一位電腦科學家,在西雅圖經營著艾倫人工智慧研究所(Allen Institute for Artificial Intelligence)。

 

在他明亮的辦公室裡向我打招呼,領我走過一塊白板,上面潦草地寫著對機器智慧的思考。(“定義成功”,“任務是什麼?”)在外面,年輕的人工智慧研究員戴著耳機,敲擊著鍵盤。

 

埃茨奧尼和他的團隊正在研究常識問題。他將此定義為兩個傳奇的人工智慧時刻——1997年 IBM 的深藍(Deep Blue)擊敗象棋大師加里·卡斯帕羅夫(Garry Kasparov) ,以及去年DeepMind的AlphaGo擊敗世界頂尖圍棋選手李世石。(谷歌在2014年收購了DeepMind。)

 

“有了深藍,當房間著火的時候,我們的程式可以做出超人一般的象棋棋步。”埃茨奧尼開玩笑說。“對吧?完全缺乏背景。快進20年,當房間著火的時候,我們有了一臺電腦,可以下出超人一般的圍棋棋步。”

 

當然,人類沒有這個限制。如果發生火災,人們會拉響警報,奔向大門。

 

換句話說,人類擁有關於這個世界的基本知識(火會燒東西) ,同時還有推理的能力(你應該試著遠離失控的火)。 

 

為了讓人工智慧真正像人類一樣思考,我們需要教它所有人都知道的東西,比如物理學(拋向空中的球會落下)或相對大小的東西(大象無法被放進浴缸)。 在人工智慧擁有這些基本概念之前,埃茨奧尼認為人工智慧無法進行推理。

 

隨著保羅·艾倫(Paul Allen)投入了數億美元,埃茨奧尼和他的團隊正在努力開發一個常識推理層,以適應現有的神經網路。(艾倫研究所是一個非營利組織,所以他們發現的一切都將被公開,任何人都可以使用。)

 

他們面臨的第一個問題,就是回答一個問題:什麼是常識?

 

埃茨奧尼把它描述為我們認為理所當然,但很少大聲說出的關於世界的所有知識。他和他的同事創造了一系列基準問題,一個真正理性的人工智慧應該能夠回答:如果我把襪子放在抽屜裡,它們明天會在那裡嗎?如果我踩了別人的腳趾,他們會生氣嗎?

獲取這種知識的一種方法,是從人類那裡提取。埃茨奧尼的實驗室正在付費給亞馬遜土耳其機器人上的眾包人員,以幫助他們製作常識性的陳述。

 

然後,研究團隊會使用各種機器學習技術——一些老式的統計分析,一些深度學習的神經網路——基於這些陳述進行訓練。如果他們做得對,埃茨奧尼相信他們可以生產出可重複使用的計算機推理“樂高積木”:一套能夠理解文字,一套能夠掌握物理知識,等等。

 

崔葉金 (Yejin Choi)是埃茨奧尼團隊研究常識的科學家之一,她負責了幾次眾包工作。 在一個專案中,她想開發一種人工智慧,能夠理解一個人的行為,或陳述出來其隱含的意圖或情感。 

 

她首先研究了成千上萬個 Wiktionary 中的線上故事、部落格和習語條目,提取出“短語事件”,比如“傑夫(Jeff)把羅傑(Roger)打昏了” 。然後,她會匿名記錄每個短語——“X把Y打昏”——並要求土耳其機器人平臺上的眾包人員描述X的意圖:他們為什麼這樣做? 

 

當她收集了25000個這樣的標記句子後,她用它們訓練一個機器學習系統,來分析它從未見過的句子,並推斷出句子的情緒或意圖。

 

充其量,新系統執行的時候,只有一半時間是正常的。但是當它正式執行的時候,它展示了一些非常人性化的感知:給它一句像“奧倫(Oren)做了感恩節晚餐”這樣的話,它預測奧倫試圖給家人留下深刻印象。

 

“我們也可以對其他人的反應進行推理,即使他們沒有被提及,”崔說。“所以X的家人可能會感到印象深刻和被愛。”

 

她的團隊建立的另一個系統使用土耳其機器人平臺上的眾包人員在故事中標記人們的心理狀態;當給定一個新的情況時,由此產生的系統也可以得出一些“尖銳”的推論。

 

例如,有人告訴我,一名音樂教練對他的樂隊糟糕的表演感到憤怒,並說“教練很生氣,把他的椅子扔了。人工智慧會預測他們會“事後感到恐懼”,儘管這個故事沒有明確說明這一點。

 

崔葉金、埃茨奧尼和他們的同事並沒有放棄深度學習。事實上,他們認為這是一個非常有用的工具。但是,他們不認為有捷徑,可以說服人們明確陳述我們所有人都擁有的怪異、無形、隱含的知識。

 

深度學習是垃圾輸入,垃圾輸出。僅僅給一個神經網路提供大量新聞文章是不夠的,因為它不會吸取未陳述的知識,這是作家們不願提及的顯而易見的事情。

 

正如崔葉金所說,“人們不會說‘我的房子比我大’。”為了幫助解決這個問題,她讓土耳其機器人平臺上的眾包人員分析了1100個常見動詞所隱含的物理關係,例如“X扔了Y”。這反過來又提供了一個簡單的統計模型,可以用“奧倫扔了一個球”這個句子來推斷球一定比奧倫小。

 

另一個挑戰是視覺推理。阿尼魯達·凱姆巴維(Aniruddha Kembhavi)是埃茨奧尼團隊中的另一位人工智慧科學家,他向我展示了一個在螢幕上漫步的虛擬機器器人。 艾倫研究所的其他科學家建造了類似模擬人生的房子,裡面裝滿了日常用品——廚房櫥櫃裡裝滿了碗碟,沙發可以隨意擺放,並符合現實世界中的物理定律。

 

然後他們設計了這個機器人,它看起來像是一個有手臂的深灰色垃圾筒,研究人員告訴它,讓它搜尋某些物品。在完成數千項任務後,這個神經網路獲得了在現實生活中生活的基礎。

 

“當你問它‘我有蕃茄嗎?它不會開啟所有的櫥櫃。它更傾向去開啟冰箱,”凱姆巴韋說。“或者,如果你說‘給我找我的鑰匙’,它不會試圖拿起電視。它會去看電視機後面。它已經知道,電視機通常不會被拿走。”

 

埃茨奧尼和他的同事希望這些不同的組成部分——崔葉金的語言推理、視覺思維,以及他們正在做的讓人工智慧掌握教科書科學資訊的其他工作——最終能夠結合在一起。

 

但是需要多長時間,最終的產品會是什麼樣子?他們不知道。他們正在建立的常識系統仍然會出錯,有時甚至超過一半的概率。

 

崔葉金估計,她將需要大約一百萬人工語言來訓練她的各種語言解析器。 建立常識似乎異乎尋常地困難。

 

 

製造機器還有其他合理的方式,但它們的勞動密集程度更高。 例如,你可以坐下來,用手寫出所有要告訴機器世界如何運作的規則。 這就是道格·萊納特(Doug Lenat)的 Cyc 專案的工作原理。

 

34 年來,萊納特僱傭了一個工程師和哲學家團隊,來編寫2500萬條常識性規則,比如"“水是溼的”或者“大多數人都知道他們朋友的名字”。這讓Cyc能夠推斷:“如果你的襯衫溼了,所以你可能是在雨中。” 優勢在於,萊納特能夠精確地控制輸入 Cyc 資料庫的內容; 而眾包知識並非如此。

 

這種由粗暴的手動行為做出來的人工智慧,在深度學習的世界中已經變得不流行。這在一定程度上是因為它可能“脆弱”:如果沒有正確的世界規則,人工智慧可能會陷入困境。這就是程式化的聊天機器人如此“智障”的原因;如果如果沒有明確告訴它們如何回答一個問題,它們沒有辦法推理出來。

 

Cyc 的能力比聊天機器人更強,並且已經經過批准,可以用於醫療保健系統、金融服務和軍事專案。但是這項工作進展非常緩慢,而且耗資巨大。萊納特說開發Cyc花費了大約2億美元。

 

但是,一點一點地進行手工程式設計可能只是複製一些固有的知識,根據喬姆斯基(Chomskyite)的觀點,這是人類大腦擁有的知識。

 

這就是迪利普·喬治和研究人員對Breakout所做的事情。為了創造一個不會面對遊戲佈局變化而變“智障”的人工智慧,他們放棄了深入學習,建立了一個包含硬編碼基本假設的系統。

 

喬治告訴我,他們的人工智慧不費吹灰之力就學會了“物體是存在的,物體之間有相互作用,一個物體的運動與其和其他物體之間的碰撞有因果關係。”

 

在Breakout中,這套系統發展出了衡量不同行動過程及其可能結果的能力。但這也起到了相反的作用。如果人工智慧想要打破螢幕最左上角的一個磚塊,它會理性地將平板放在最右邊的角落。

 

這意味著,當Vicarious改變遊戲的規則時——新增新磚塊或提升平板——系統會得到補償。 它似乎抓住了一些關於 Breakout 本身的通用性理解。

 

顯然,這種人工智慧在工程中存在權衡。 可以說,精心設計和仔細規劃,以精確找出將什麼預先設定的邏輯輸入到系統中,是一個更艱苦的工作。 在設計一個新系統時,很難在速度和精度之間取得恰當的平衡。

 

喬治說,他尋找最小的資料集“放入模型,以便它能夠快速學習。”你需要的假設越少,機器做決策的效率就越高。

 

一旦你訓練了一個深度學習模型來識別貓,你就可以給它看一隻它從未見過的俄羅斯藍貓,然後它就會立刻給出結論——這是一隻貓。 在處理了數百萬張照片之後,它不僅知道是什麼讓一隻貓變成了貓,還知道識別一隻貓的最快方法。

 

相比之下,Vicarious的人工智慧速度較慢,因為隨著時間的推移,它會主動地做出邏輯推論。

 

當Vicarious的人工智慧執行良好時,它可以從更少的資料中學習。喬治的團隊通過識別扭曲的字型形象,創造一種人工智慧來突破神經網路上“我不是機器人”的障礙。

 

就像Breakout系統一樣,他們預先給人工智慧賦予了一些能力,比如幫助它識別字元的知識。隨著引導就位,他們只需要在人工智慧學會以90.4 %的準確率破解驗證碼之前,在260張影像上訓練人工智慧。相比之下,神經網路需要在超過230萬張影像上訓練,才能破解驗證碼。

 

其他人,正在以不同的方式將常識般的結構構建到神經網路中。例如,DeepMind的兩名研究人員最近建立了一個混合系統:部分是深度學習,部分是更傳統的技術。他們將這個系統稱為歸納邏輯程式設計。目標是創造出能夠進行數學推理的東西。

 

他們用兒童遊戲“fizz-buzz”來訓練它,在這個遊戲中,你從1開始向上數,如果一個數字可以被3整除,就說“fizz”,如果它可以被5整除,就說“buzz”。一個普通的神經網路,只能處理它以前見過的數字;如果把它訓練到100分鐘,它就會知道99時該“fizz”,100時“buzz”。

 

但它不知道如何處理105。相比之下,DeepMind的混合深度思維繫統似乎理解了這個規則,並在數字超過100時沒有出現任何問題。愛德華·格雷芬斯特(Edward Grefenstette)是開發這種混合系統的DeepMind程式設計師之一,他說,“你可以訓練出一些系統,這些系統會以一種深度學習網路無法獨自完成的方式進行推理。”

 

深度學習的先驅、Facebook人工智慧研究部門的現任負責人楊立昆(Yann LeCun )對許多針對這個領域的批評表示贊同。他承認,它需要太多的訓練資料,不能推理,也不具備常識。

 

“在過去的四年裡,我基本上在一遍又一遍地重複這句話,”他提醒我。但是他仍然堅信,進行正確的深入學習,可以獲取答案。他不同意喬姆斯基對人類智力的看法。他認為,人類大腦是通過互動而不是內在的規則來發展出推理能力的。

 

“如果你思考一下動物和嬰兒是如何學習的,在生命的最初幾分鐘、幾小時、幾天裡,學很多東西都學得很快,以至於看起來像是天生的,”他指出。“但事實上,他們不需要硬編碼,因為它們可以很快學會一些東西。”

 

從這個角度來看,為了瞭解世界的物理規律,一個嬰兒只需要四處移動它的頭,對傳入的影像進行資料處理,並得出結論,景深就是這麼一回事。

 

儘管如此,楊立昆承認,目前還不清楚哪些途徑可以幫助深度學習走出低谷。有可能是“對抗性”神經網路,一種相對新的技術,其中一個神經網路試圖用虛假資料欺騙另一個神經網路,迫使第二個神經網路發展出極其微妙的影像、聲音和其他輸入的內部表徵。

 

它的優勢是沒有“資料缺乏”的問題。你不需要收集數百萬個資料來訓練神經網路,因為它們是通過相互學習來學習的。(作者注:一種類似的方法正在被用來製作那些讓人深感不安的“深度偽造”(deepfake)視訊,在這些視訊中,有些人似乎在說或做一些他們沒有說或做的事情。)

 

我在Facebook位於紐約的人工智慧實驗室的辦公室裡遇見了楊立昆。馬克·祖克伯(Mark Zuckerberg)在2013年招募了他,承諾實驗室的目標將是推動人工智慧突破極限,而不僅僅是對Facebook的產品進行微小的調整。像學術實驗室一樣,楊立昆和他的研究人員可以將他們的研究成果發表出來,供其他人蔘閱。

 

楊立昆仍然保留了他的法國本土口音,他站在白板前,精力充沛地勾畫出可能推動深入學習進步的理論。對面的牆上掛著一套斯坦利·庫布裡克(Stanley Kubrick)《2001:太空漫遊》(2001: A Space Odyssey)中的華麗畫作——漂浮在太空深處的主宇宙飛船,一艘繞地球執行的輪式飛船。“哦,是的,”當我指出他們時,楊立昆說,他們重印了庫布裡克為這部電影製作的藝術品。

 

藉著周圍的圖片來討論類人人工智慧,讓人感到莫名的不安,因為2001年的HAL 9000,一個類人人工智慧,是一個高效的殺手。

 

這指向了一個更深層次的哲學問題,超越了人工智慧發展方向的爭論:製造更聰明的人工智慧是一個好主意嗎?Vicarious的系統破解了驗證碼,但驗證碼的意義在於防止機器人模仿人類。

 

一些人工智慧研究者擔心,與人類交談並理解人類心理的能力可能會使惡人工智慧變得極其危險。 牛津大學的尼克 · 博斯特龍(Nick Bostrom)敲響了創造"超級智慧"(superintelligence)的警鐘。超級智慧是一種自我改進並快速超越人類的人工智慧,能夠在各個方面超越我們。 (他認為積聚控制力的一種方式是通過操縱人們——擁有"心智理論"對此會非常有用。)

 

埃隆·馬斯克(Elon Musk)對這種危險深信不疑,他資助了致力於安全人工智慧理念的組織OpenAI。

 

這樣的未來不會讓埃齊奧尼晚上失眠。他不擔心人工智慧會變成惡意的超級智慧。“我們擔心會有什麼東西會接管這個世界,”他嘲笑道,“那甚至不能自己決定再下一盤棋。”目前,還不清楚人工智慧會如何發展出這些意願,也不清楚這種意願軟體中會是什麼樣子。深度學習可以征服國際象棋,但它沒有天生的下棋意願。

 

令他擔憂的是,是目前的人工智慧非常無能。因此,雖然我們可能不會創造出具有自我保護智慧的HAL,但他說,“致命武器+無能的人工智慧很容易殺人。”這也是為什麼埃齊奧尼如此堅決地要給人工智慧灌輸一些常識的部分原因。他認為,最終,這將使人工智慧更加安全;不應該大規模屠殺人類,也是一種常識。(艾倫研究所的一部分任務是使人工智慧更加合理化,從而使其更加安全。)

 

埃齊奧尼指出,對人工智慧的反烏托邦式的科幻願景,其風險要小於短期的經濟轉移。如果人工智慧在常識方面做得更好,它就能更快地完成那些目前僅僅是模式匹配深度學習所難以完成的工作:司機、出納員、經理、各行各業的分析師,甚至是記者。

 

但真正有理性的人工智慧造成的破壞甚至可能會超出經濟範圍。 想象一下,如果散佈虛假政治資訊的機器人能夠運用常識,在 Twitter、 Facebook 或大量電話中顯得與人類毫無區別,那該會是什麼樣子。

 

馬庫斯同意人工智慧具備推理能力會有危險。但是,他說,這樣帶來的好處是巨大的。人工智慧可以像人類一樣推理和感知,但卻能以計算機的速度運算,它可以徹底改變科學,以我們人類不可能的速度找出因果關係。

 

除了擁有大量的機器人知識之外,它可以像人類一樣進行心理實驗,可以遵循“if - then”鏈條,思考反事實。“例如,最終我們可能能夠治癒精神疾病,”馬庫斯補充道。“人工智慧或許能夠理解這些複雜的蛋白質生物級聯,這些蛋白質參與到了大腦的構建中,會讓它們正常工作或不正常工作。”

 

坐在《2001:太空漫遊》的照片下面,楊立昆自己提出了一個“異端”觀點。當然,讓人工智慧更加人性化有助於人工智慧給我們的世界提供幫助。但是直接複製人類的思維方式呢?沒有人清楚這是否有用。我們已經有了像人類一樣思考的人;也許智慧機器的價值在於它們與我們完全不同。

 

“如果他們有我們沒有的能力,他們會更有用,”他告訴我。“那麼他們將成為智力的放大器。所以在某種程度上,你希望他們擁有非人類形式的智力......你希望他們比人類更理性。”換句話說,也許讓人工智慧有點人工是值得的。

 

原文連結:

https://www.wired.com/story/how-to-teach-artificial-intelligence-common-sense/

 

 

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2222416/,如需轉載,請註明出處,否則將追究法律責任。

相關文章