人工智慧:向4歲孩子學習(Alison Gopnik)

stevens0102發表於2017-07-07
人工智慧:向4歲孩子學習(Alison Gopnik)
兩種互為競爭的機器學習策略,雖然都在笨拙地模仿兒童輕而易舉就能做到的事情,但它們正在把人工智慧轉化成一門學科。(環球科學供圖/圖)

(本文首發於2017年6月22日《南方週末》,原標題為《人工智慧:向4歲孩子學習》)

四歲兒童都能輕易解決的問題,卻會難住最強大的電腦。近年來,透過模仿兒童的學習方式,人工智慧再度強勢迴歸。

如果你花很多時間跟小孩子在一起,你一定想知道這些小人兒怎麼能學得這麼快、這麼多。柏拉圖以降的哲學家也想知道,但是他們從未找到令人滿意的答案。我5歲大的孫子,奧吉(Augie),已經學習了植物、動物和鐘錶,更不用說恐龍和宇宙飛船了。他還能弄明白別人想要什麼,以及他人的想法和感受。他能用這些知識對他看到的和聽到的進行分類,並做出新的預測。他最近宣稱,在美國自然歷史博物館展出的最新發現的雷龍是植食動物,這意味著雷龍並不是那麼可怕。

然而,奧吉從周圍環境中接觸的一切,不過是撞擊視網膜的光子流和耳朵鼓膜附近空氣的振動。但是,他那藍色眼睛後面的神經計算機,卻能從這些有限的感官資訊開始,最終做出關於植食性雷龍的預測。一個揮之不去的問題就是,電子計算機能做到同樣的事情嗎?

過去的15年裡,電腦科學家和心理學家一直在試圖尋找這個問題的答案。老師和家長只需教授些許,兒童就能學會很多知識。儘管機器智慧取得了巨大進步,但頂級電腦的學習能力也無法比擬年僅四歲的兒童。

瞭解兒童大腦如何運作,進而創造出以相同效率執行的數字化版本,將在未來十年繼續挑戰著電腦科學家。不過,與此同時,他們已經著手將人類的學習方式融入到人工智慧的開發當中。

自下而上

20世紀的50年代和60年代,是人工智慧的第一次興起。但在那之後,科學家對人工智慧的追尋沉寂了幾十年。然而,在過去的幾年裡,尤其是機器學習的一些重大進展,讓人工智慧成了技術界最熱門的研究物件。許多烏托邦主義者或末世論者紛紛對這些進展做出預言,要麼人類獲得永生,要麼世界滅亡,不勝其數。

我懷疑,人工智慧的發展會引起如此強烈的感受,源於我們內心深處對類人物的恐懼。從中世紀的傀儡,到怪物弗蘭肯斯坦,再到電影《機器姬》中性感的機器女郎艾娃(Ava),人類創造的某些東西可能會彌合人與人造物之間的差別,這一想法始終深深地困擾著我們。

但是,計算機真的能像人類一樣學習嗎?在圍繞人工智慧的激烈言論當中,有多少真正指出了革命性的變化,又有多少隻是誇誇其談?很難講清楚,計算機識別出一張貓的照片、一個口語單詞或者一個日文字元的具體細節。但是,經過深入考察,機器學習背後的根本方法並非乍看之下那樣令人困惑。就像奧吉和我們所有人接收光子流和空氣振動一樣,對計算機來說,它解決問題的一種方法是從電子影像中的畫素和錄音中的聲音樣本開始。然後,計算機會嘗試從電子資料中提取一系列模式,用來檢測和識別周圍環境的其他物件。這就是所謂的“自下而上”策略,這一策略根植於哲學家戴維·休姆(David Hume)、約翰·斯圖爾特·密爾(John Stuart Mill)和心理學家伊萬·巴甫洛夫(Ivan Pavlov)和斯金納(B. F. Skinner)等很多人的思想之中。

在20世紀80年代,科學家找到了一種巧妙而實用的方法,讓計算機得以應用“自下而上”策略,在資料中尋找有意義的模式。“連線模型”(Connectionist Model),或者說“神經網路”,這些系統的誕生受到了大腦神經元的啟發:把視網膜上的光訊號,轉化為對周圍世界的認知。人工神經網路做著相似的事情,它利用類似於生物細胞的互聯處理元件,將第一層網路上的初始光訊號(畫素)逐步在更高層網路上轉換成更加抽象的表達,如鼻子或者臉。

得益於深度學習這一新技術,神經網路最近開始復興。谷歌、臉書和其他科技巨頭正在將深度學習技術商業化。計算機日益增長的計算能力(著名的摩爾定律預測計算機的計算能力將以指數增長)也是人工智慧系統取得最新成功的部分原因。同樣,超大資料集的發展也功不可沒。有了更強大的處理能力和更多的可分析資料,神經網路系統就能以超乎想象的方式更加有效地學習。

長久以來,人工智慧社群的偏好總是在自下而上和自上而下兩種機器學習方法之間搖擺。自上而下的方法是讓一個系統根據已知的知識來學習新的東西。柏拉圖以及被稱為“理性派”哲學家的勒內·笛卡爾(René Descartes),相信學習是自上而下的,這一思想在人工智慧的早期發展中發揮了重要作用。在21世紀初期,這些方法以機率模型或貝葉斯模型的形式獲得了重生。

像科學家一樣,自上而下的系統首先對世界提出抽象而寬泛的假設。如果這些假設是正確的,系統就會預測資料結果。接著,還是跟科學家一樣,系統根據這些預測的結果來修正它們的假設。

奈及利亞、偉哥和垃圾郵件

自下而上的方法可能是最容易理解的,我們先來看看它是怎麼工作的。想象一下,你正在嘗試讓計算機區分電子郵箱中的重要郵件和垃圾郵件。你可能會注意到,垃圾郵件往往具有某些容易辨識的特徵:長長的收件人列表、來自奈及利亞或保加利亞的發件地址,以及提到100萬美元獎金或者偉哥。問題是,正常郵件也可能有這些特徵,而你肯定不想錯過升職或學術獎項的通知。

如果你把足夠多的垃圾郵件跟正常郵件比較,你或許會發現,只有垃圾郵件具有某些明顯的特徵組合。比如說,郵件來自奈及利亞,再提到100萬美元獎金就意味著郵件有問題。實際上,還可能存在一些更加細微的、更高層次的模式能夠用於區分垃圾郵件和有用的郵件。例如那些根本不引人注意的拼寫錯誤和IP地址。如果找出這些模式,你就能夠精準地過濾垃圾郵件,又不必擔心錯過偉哥的發貨通知。

自下而上的機器學習可以找出解決這類問題的線索。為了做到這一點,神經網路需要經過一個自我學習的過程。在學習的過程中,它對資料庫內標記著“垃圾”或“有用”的上百萬封郵件進行評估,並提取出一組辨識特徵,用以區分垃圾郵件和其他郵件。

以相似的方式,神經網路還可以評估標註有“貓”、“房子”或“劍龍”等網際網路圖片。透過提取每類圖片的共同特徵,比如說將所有貓與所有狗區分開來的特徵,神經網路就可以識別出包含貓的新圖片,即使它從未見過這張圖片。

還有一種自下而上策略,叫作“無監督學習”。雖然目前還處於相對初期的發展階段,但是它可以從沒有任何標註的資料集中提取資料模式。它所做的,只是簡單地找出物體的特徵簇,例如鼻子和眼睛總是在一起構成一張人臉,有別於背景中的樹和山。在這些先進的深度學習網路中,識別一個物件是透過將識別任務分解到網路不同的層中來實現的。

2015年,《自然》雜誌上的一篇文章展示了自下而上這種方法目前的發展水平。谷歌旗下DeepMind公司的研究人員,組合了兩種自下而上的技術:深度學習和增強學習,讓計算機能夠精通雅達利2600遊戲機上的影片遊戲。一開始,計算機對遊戲一無所知。所以,在初始階段,它採用隨機動作來猜測最佳策略,同時不斷接受遊戲表現反饋。深度學習幫助系統識別螢幕上元素的特徵,而強化學習則會獎勵在遊戲中獲得高分的策略。經過多次遊戲以後,計算機已經達到了非常熟練的程度。在一些情況下,計算機的表現甚至超過了人類頂級玩家。也就是說,在人類容易上手的遊戲上,計算機已經所向披靡。

人工智慧學習大資料集的能力,像數以百萬計的Instagram圖片、電子郵件或者語音,讓一度令人生畏的問題,比如影像識別和語音識別,也有了解決辦法。即便如此,我們仍要明白,我的孫子僅僅需要更為有限的資料和訓練,就可以輕鬆識別動物,或者回答口頭提問。對四歲兒童來說很容易的問題,交給計算機就變得非常棘手,比學會下棋要難多了。

計算機要學會識別一張帶鬍鬚又模糊的臉,往往需要學習數百萬張圖片,而人類只需要幾個例子就能辨識。經過充分訓練後,計算機或許能夠識別出它從未見過的貓的照片,但它採用的方法跟人類概括的方式還很不一樣。正因為計算機獨特的推理方式,它難免會犯錯,比如沒有把一些貓的照片標記出來,或者錯誤地把一團汙點標記為貓照片。人類就絕不會犯這類錯誤。

自上而下

近年來,改變人工智慧的另一種機器學習方法剛好相反,是自上而下。它假設,人類之所以能夠從具體的資料中獲得抽象的知識,是因為我們已經知道一些知識,特別是我們的大腦已經能夠理解基本的抽象概念。像科學家一樣,我們藉助這些概念做出關於世界的假設。倘若這些假設是正確的,我們就能預測未來的資料或者事件。這正好與自下而上的人工智慧方法相反,後者嘗試從原始資料中總結出模式。

為了讓大家理解自上而下的學習方法,我還是拿本人親身經歷的垃圾郵件來闡釋。有一次,一家名字奇怪的期刊的編輯給我發了一封郵件,提到了我的一篇論文,還建議我寫一篇文章來發表。沒有奈及利亞,沒有偉哥,沒有一百萬美元,這封郵件沒有任何垃圾郵件通常具有的標識。但是,運用我已經知道的知識,並抽象地思考垃圾郵件產生的過程,我判斷這封郵件是可疑的。

首先,我知道垃圾郵件傳送者試圖利用人性的貪婪來騙取錢財。學術界對發論文的貪婪,跟普通人對中百萬美元大獎或者擁有更強效能力的貪婪並無二致。我還知道,合法的開放獲取期刊(Open Access Journal)開始透過向作者而不是訂閱者收費,來承擔成本。再有,我的工作跟這個期刊的名稱毫不相關。綜合這些事實,我得到了一個合理的假設,即這封郵件試圖誘騙學者在虛構的刊物上付費“發表”文章。僅僅根據一個案例,我就能得出這樣的結論。並且,我還能透過搜尋引擎查驗期刊編輯的真實身份,進一步驗證我的假設。

電腦科學家把這一推理過程稱為“生成模型”,它能夠理解一些抽象概念,如貪婪和欺騙。它還能描述假設產生的過程,即得出這可能是一封垃圾郵件結論的推理過程。這一模型讓我明白了這類垃圾郵件的詐騙方式,它還能讓我聯想到其他形式的垃圾郵件,即使我從未曾遇到或聽說過它們。當我收到這個期刊的郵件時,正是這個模型讓我一步步反推,進而確定它就是垃圾郵件。

20世紀50年代到60年代,生成模型在第一次人工智慧和認知科學浪潮中扮演著至關重要的角色。但是它們也有侷限性。首先,一些現象在原則上可以被多種不同的假設解釋。在我的例子裡,儘管不太可能,這封郵件有可能真的合法。因此,生成模型必須包含機率,這是該方法近來最重要的發展。其次,構成生成模型的基本概念從何而來往往是不清楚的。像笛卡爾和喬姆斯基(Chomsky)這樣的思想家認為,這些基本概念是與生俱來的。但是,人們來到這個世界時,真的就知道貪婪和欺騙是如何產生詐騙的嗎?

貝葉斯模型(Bayesian models),自上而下方法的重要代表,試圖同時解決上述兩個問題。它以18世紀統計學家和哲學家托馬斯·貝葉斯(Thomas Bayes)命名,將生成模型與運用貝葉斯推理技術的機率理論結合起來。一個機率生成模型可以告訴你,看到一種特定的資料模式或一個特定假設為真的可能性有多大。如果這是一封垃圾郵件,它就有可能會激起讀者的貪慾,但一封能誘發貪慾的郵件並不一定就是垃圾郵件。貝葉斯模型將合理假設的知識同現有的資料結合起來,讓你能夠精確計算一封郵件是合法還是垃圾的可能性。

與自下而上相比,自上而下更符合兒童的學習方式。這就是為什麼,在過去的15年裡,我和同事在兒童發展研究工作中使用貝葉斯模型。我的實驗室和其他研究人員已經使用這些技術,來模擬兒童如何學習因果關係,預測青少年如何以及何時改變對錯誤觀點的看法,比如噁心可能會導致胃疼這一觀點。

貝葉斯模型還是教機器像人一樣學習的好方法。2015年,麻省理工學院的喬舒亞·特南鮑姆(Joshua Tenenbaum,我跟他時有合作)和紐約大學的布倫登·拉克(Brenden Lake)以及他們的同事在《科學》雜誌上聯合發表了一篇論文。他們設計的人工智慧系統,能夠識別陌生的手寫字元。這一任務對人來說很簡單,但對計算機而言卻格外困難。

想想你自己的識字技巧:即使你從未見過卷軸上的某個日文字元,你也應該能夠分辨出,它與其他卷軸上的另一個字元是否相同。你大概還能把它寫出來,甚至設計一個假的日文字元,並且你知道日文看起來跟韓文或者俄羅斯文有很大不同。這些就是特南鮑姆團隊用軟體實現的功能。

在自下而上的方法中,計算機需要學習幾千個字元樣本,從中發現模式,並用來識別新的字元。與之相反,貝葉斯模型程式讓計算機掌握如何書寫字元,即一個筆畫可以向左,也可以向右。當軟體寫完一個字元,它就繼續寫下一個。

當程式模型看到一個給定字元時,它會推斷書寫字元的筆畫順序,進而生成一組相似的筆畫。這一做法,與我推斷垃圾郵件的一系列步驟是相同的。跟判斷郵件是否與營銷欺騙有關不同,特南鮑姆的模型需要猜測某一筆畫能否得到想要書寫的字元。在相同的資料上執行,自上而下程式比深度學習更加有效,而且行為表現與人類非常相像。

1加1大於2

作為兩種領先的機器學習方法,自下而上和自上而下,其優勢和劣勢正好是互補的。使用自下而上方法,計算機一開始無需對貓有任何瞭解,但需要大量資料。而貝葉斯系統只需少量樣本即可學習,它的泛化能力也更好。但是,自上而下方法需要大量的前期工作才能生成正確的假設集合。並且,這兩類系統的設計者可能會遇到相同的難題,即兩種方法都只能解決相對狹窄且定義明確的問題,例如識別手寫字元、貓,或者玩雅達利遊戲。

兒童就沒有這些限制。發展心理學家發現,兒童以某種方式結合了兩種方法的優點,並且走得更遠。奧吉只需要一兩個例子就能學會,這是自上而下系統的做法。但有的時候,他也能根據已有資訊產生新的想法,像自下而上系統那樣,而這些概念一開始並不存在。

實際上,奧吉能夠做的還有更多。他可以立即認出貓,區分字母,而且他還能做出令人驚喜、富有創造力的論斷,遠遠超出了他的經驗和背景知識。最近,他宣稱如果一個大人想要變回小孩,那麼他就不能吃任何健康蔬菜,因為吃這些蔬菜讓小孩子長大成人。我們根本不知道這種創造性推理是如何出現的。

當聽到人工智慧已經是現實威脅的言論時,我們應當回想人類心靈的神秘力量。人工智慧和機器學習聽起來可怕,並且在某些方面,它們也確實如此。軍方正在研究用人工智慧系統控制武器的方法。

但是,跟人工智慧相比,人性的自然愚蠢(natural stupidity)會造成更大的浩劫。因此,人類需要更加聰明地規範新技術。摩爾定律的影響力是巨大的:即便計算的進步來自於資料和計算能力的增長,而不是源於我們對智慧的理解發生了革命性改變,它們仍將產生重大且實際的影響。但是,我們沒理由相信一個新的技術怪物會進入這個世界。

(Scientific American中文版《環球科學》授權南方週末發表,張夏天翻譯)


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/23488160/viewspace-2141711/,如需轉載,請註明出處,否則將追究法律責任。

相關文章