AI發展三境:神,神經,神經病
自達特茅斯會議誕生以來,人工智慧已經走過60年的歷史。在過去60年中,人工智慧經歷了兩次繁榮和低谷,現在正處於第三次繁榮期,關於未來 的人工智慧的走向,有三種觀點。
第一種觀點以《未來簡史》的作者尤瓦爾·赫拉利、谷歌工程總監未來學家雷·庫茲維爾和軟銀的創始人孫正義等人為代表,他們認為未來的人工智慧是神,是上帝。
比如孫正義認為30年後,人工智慧的智商是一萬,而愛因斯坦的智商不過兩百,人工智慧看人類如同現在人類看螞蟻。
第二種觀點認為,本輪人工智慧的主要推動力是神經網路。神經網路以大資料作為燃料,以強大的計算力作為引擎,但是當下大資料的紅利正逐漸消失,主宰了晶片處理能力的摩爾定律經過60年的指數增長,也已逼近了理論極限得天花板。這一派認為未來人工智慧會緩慢向前發展,但是速度不會像前兩年這麼快,我以“神經”來作為這派的核心詞。
第三種觀點認為歷史還將重演,人工智慧的冬天還會再來,他們認為“人工智慧統治人類”如同神經病一樣荒唐可笑。
這三派的核心觀點,簡而言之,可以用“神”、“神經”和“神經病”三個詞來歸納。
這一輪的人工智慧熱潮是怎麼開始的?
本輪AI發端於2006年,多倫多大學教授傑弗裡·辛頓(Geoffrey Hinton)等人彼時連發了三篇關於深度學習的重量級論文,提出了深度信念網路。
雖然該網路目前應用已不是很多,但在當時卻是如冬日驚雷打破了神經網路聯結主義長達十年的沉寂,開啟了神經網路的新紀元——深度學習,該網路採用了逐層貪心訓練的方法,對算力的要求較低。
深度信念網路是將受限的玻爾茲曼機一層層堆疊而成,而玻爾茲曼機是在上世紀80年代由辛頓與特倫斯(Terrence Sejnowski)一起發明的。
AlphaGo是從哪裡來的?
2016年,AlphaGo以4:1戰勝了韓國著名棋手擁有16個世界冠軍頭銜的韓國超一流棋手李世乭九段,引起了媒體和大眾對人工智慧的極大關注。
這幾乎是人工智慧最火爆的一次亮相,但少有人知道,AlphaGo是從哪裡來的?
AlphaGo的起步於Atari--一個古老的80年代的電視機遊戲,2012年,Deepmind用攝像頭對準電視機,讓人工智慧玩Atari,透過計算機視覺和強化學習讓機器學習控制這個遊戲,儘量得到更多的分數,只要將球反彈到上面消除彩色磚塊就能得分獲得“獎勵”(Reward)。
這個訓練過程和心理學的行為主義的思想是一致的,訓練AI就像訓練一隻小狗,做對了就給它吃顆糖。
在訓練了四個小時之後,AI已經發現了一個打贏遊戲的秘訣——將左邊磚塊打穿,然後球在上面空間反覆來回彈射,可以自動消除大量磚塊,快速得分。
這個“秘訣”是設計這個AI程式的的工程師也不曾知道的,這也就可以解釋為什麼AlphaGo在打敗柯潔和李世乭的時候,使用了很多人類從未見過的招數。
行為主義作為心理學的一個學派,他們認為思維不可被觀察,不適合作為科學的研究物件,行為才是合適的研究目標。
在人工智慧中,行為主義對應為強化學習。
大家都知道“巴甫洛夫的狗”這個實驗,有沒有聽說過知道“桑代克的貓”呢?在“巴普洛夫的狗”這個實驗當中,狗是完全被動的受測物件,只是聽到鈴聲流口水,沒有任何選擇的機會。而桑代克給了貓一個選擇:貓被關在一個籠子裡,籠子裡有個開關,一旦被貓按下後,門就會開啟。第一次貓被關進籠子,要花很久才能夠按動開關,逃出籠子,第二次被放進去之後,貓會直接按動開關,逃出生天。
第三位行為主義的大師是斯金納,斯金納給測試物件2個選擇,他把一隻老鼠放在籠子裡,籠子裡有兩個按鈕,按下其中一個按鈕,食物會掉落下來,按下另一個按鈕,則會警報聲大作,把老鼠嚇壞了。被警報聲驚嚇過的老鼠被再次放進籠子後,它會遠遠的躲開電鈴的開關。
行為主義認為:我們無法透過語言來了解一個人真正在想什麼,只有行為才可以被客觀的觀察和研究。相對應的,人工智慧領域持相似觀點的學者,並不關心AI是怎麼想的,只關心AI是怎麼做的。
人工智慧已開始理解我們的語言,甚至擁有了“想象力”?
在地球上,有很多動物的視覺超越人類,但是,能使用語言進行溝通卻只有人類,人類的自然語言被稱為人工智慧王冠上明珠,至今尚未被完全攻克。
短時記憶位於大腦前額葉的部分,也稱工作記憶,而長期記憶則儲存在腦後的位置,當我們理解了一個概念後,就會從工作記憶轉存到長期記憶。
深度學習在處理自然語言和其他時序相關的資料時,經常使用一種名為長短時記憶(LSTM)的演算法。
這兩年我們看到各種機器翻譯、個人助手和智慧音響等各種AI商業化應用層出不窮,其主要原因是因為深度學習在語音識別領域取得了突破,使得AI開始可以理解我們在說什麼,從而開啟了自然語言處理的大門,LSTM被廣泛應用於自然語言處理和其他時序相關的場景。
和辛頓一起獲得圖靈獎的卷積神經網路(CNN)之父楊力昆(Yann LeCun)曾說過,在過去的十年中,人工智慧領域最有趣的想法要數生成對抗網路(GANs)了。
GANs使AI具有“想象力”,上圖中GANs把川普與尼古拉斯·凱奇的照片進行合成,類似用GANs來生成圖片的應用層出不窮,甚至,LinkedIn上已經出現了虛擬的間諜,透過GANs“想象”出來的可以亂真的但實際並不存在的臉,真人間諜操控這個虛擬的美女,在社交媒體上與美國的一些高官攀關係並竊取有價值的情報。
最近也有一些關於GANs負面訊息,比如Deepnude等。 GANs的核心思想是引入了博弈論,讓用兩個神經網路互相博弈,一個網路負責造假,另一個負責鑑定真假,兩個網路互相對抗博弈,造假和鑑定真假的水平都不斷上升,最終達到納什均衡,然後就可以把判定真假的網路扔掉,因為造假的網路已經完全可以以假亂真了。
GANs的成功表明:“對抗”是實現智慧的一個途徑,AlphaGo也利用是對抗博弈使其達到很高的水準。
人工智慧一直在吃20年前的老本麼?
不論是卷積神經網路,還是LSTM等迴圈神經網路,都是在上世紀90年代就已經提出。由於受當時的算力和資料量的限制,在當時都沒有走紅,而是在20年之後才爆發。
現在的人工智慧產業看上去非常的繁榮,但理論層面缺乏創新的思想突破,還在吃20年前的老本。
未來五年到十年,深度學習、人工智慧領域出現重大的突破的機率並不太高,但這並不妨礙工業界大量AI應用落地。
算力是本輪AI繁榮的三個要素之一,具有多核並行處理能力的GPU已成為深度。隨著量子計算的發展,量子計算機未來也可能對AI產生深遠的影響。
我們目前使用的計算機被稱為經典計算機,也稱馮諾依曼機,內部以0和1來表達世界。
對於量子計算機而言,一個Qubit(量子位)可以用a和b兩個(復)數表達0和1兩個數字的疊加態,也就是擁有了2個資訊位(2的1次方);兩個Qubit,可以表達2的2次方個資訊位的資訊。
一個50 Qubit量子計算機的強大並行處理能力所產生的算力將超過目前世界上任何一臺超級計算機。
經典計算機可以被視為量子計算機的特殊情況(類似於三角函式取0度或90度的特殊情況),恰似邏輯推理是機率的特殊情況(機率為0或1)。
展望未來10-20年,一旦量子計算機實現了穩定計算能力,必將對人工智慧產生一個顛覆性的影響,對電子商務和加密貨幣的影響也將是翻天覆地的。
但目前,人工智慧並沒有我們人類意義上的“智慧”,只是在做數學上最小化。
絕大部分擔心AI威脅人類的人,包括剛去世不久的黑洞物理學家霍金和特斯拉汽車的CEO伊隆·馬斯克,都提出人工智慧對人類的“威脅論”,他們幾乎都沒有人工智慧的落地經驗,因為不瞭解導致了恐懼和擔憂。
人工智慧的一線研究人員幾乎沒有人持類似觀點,正如前百度首席科學家吳恩達所言,現在擔心人工智慧統治人類,無異於擔心火星上人口過剩。
深度學習建立了從輸入到輸出的一個自動對映的過程,在部分應用中表現得非常完美,然而,這並不代表AI具有人類的智慧,甚至還想差很遠。
AlphaGo雖然能打敗柯潔、李世乭,但是它並沒有意識,它並不知道自己在下圍棋;同樣的,人工智慧翻譯翻得再好,它也不能完全替代專業的人類翻譯。因為它也並不理解它翻譯的內容,雖然它讓你感覺到它翻譯的很完美,屬於典型的“以其昏昏,使人昭昭”。
上面提到的講對抗生成網路,也會犯一些人類絕對不可能犯得錯誤。
上圖左側人工智慧正確地識別出一隻大熊貓,我們一個長臂猿的梯度資料作為一個隨機噪音,混入熊貓的照片資料中,AI就把大熊貓誤認為了長臂猿,這對人來說是絕對不可能發生的錯誤。
目前,深度學習最大的問題之一就是它是個“黑盒子”,我們並不理解裡邊的每個神經元所代表的含義。
已經有科學家,在這方面進行了一些探索性研究,並在計算機視覺領域,部分的解決了神經元問題。
比如,對於腦科學家長久以來爭論不休的“祖母細胞”的問題,麻省理工大學的研究人員發現,用人工神經網路驗證了真的可能是對於一個重要概念,大腦會分配一個或相關一組細胞來表示這個概念,每當這個概念被提起時,相關的細胞就會被激發。
以後最浪漫的情話可能是:“我為你單獨分配了一個神經細胞”。
我們看到,不僅腦科學可以促進人工智慧的發展,反過來人工智慧也能夠促進腦科學的研究,昔日兩個大相徑庭的領域正越走越近,相互融合。
深度學習另外一個侷限性就是需要大量的人工的標籤,無人駕駛公司僱傭的打標籤的人工成本,甚至超過了資料科學家的成本。從這個角度,目前監督式機器學習的情況可以說是:“有多少人工,就有多少智慧”。
如果我們把機器學習中主要的方法和大腦做一個對比的話,監督式學習,依靠人類打標籤的,也就是說有標準答案的,對應為人類小腦的機制。對這種機器學習,我們已經研究的比較成熟了。 但問題在於,網際網路上大量的資料是沒有標籤的,依靠人去打標籤的成本太高而不現實。
這類非監督的機器學習方法可以很好的去發現資料本身的特徵與結構,與監督式學習一起工作,可以得到更好的效果。大腦皮層的功能對應的就是非監督機器學習。
AlphaGo對應的強化學習介於上述兩者之間,強化學習是沒有一個明確的,打標籤的這樣一個動作,但是它會得到一個環境的反饋。
這種學習方式比監督式學習通用性強很多,它不需要標籤資料,只透過一個回報的數值來改進模型,通用性強,也是未來實現通用人工智慧(AGI)的重要路徑。
未來的機器的發展可能是以強化學習和非監督學習為主,而一些深度學習模型中已經融入了非監督機器學習,而AlphaGo則是強化學習和深度學習相結合的產物。
強化學習對應的大腦結構是基底神經節。
做烏鴉,不要做鸚鵡
人工智慧在過去兩次熱潮當中,都是以邏輯推理為核心的符號主義所主導的,這一脈可以上溯到亞里士多德和蘇格拉底。某些做知識圖譜的人工智慧的公司,會去招哲學博士,為什麼?
因為,兩千年前的亞里士多德的本體論在今天構建知識圖譜的過程中,其思想仍然是核心。
知識圖譜被認為是下一代的搜尋引擎,你可以在百度上輸入一個問題:姚明的妻子是誰?百度會直接告訴你答案:葉莉,這是因為知識圖譜是基於邏輯推理的。
在金融行業,知識圖譜有非常廣泛的應用於風控,它有助於明顯提高風控的表現,如果逾期率的風險能降低0.1%,對於很多企業來說,每年都能減少了上億的損失。
和機器學習所代表的機率性思維不同,知識圖譜所代表的,是另一種思維——確定性的邏輯推理。這兩種思維的結合會產生很好的效果。 現在的人工智慧被稱為窄人工智慧(ANI)。就像一隻鸚鵡,學人說話學得很像,但它的智力其實很低。我們將來要實現的人工智慧可能是烏鴉,在日本有人拍到的一段畫面:
烏鴉撿到了一個堅果,但這個堅果很硬,它吃不到裡邊的肉,烏鴉就把堅果拋向高空掉在地上,還是砸不碎堅果。於是這隻烏鴉把堅果放在馬路當中,希望來往的車輛把堅果軋碎。但路上車水馬龍,烏鴉去吃的時候不小心被車軋死怎麼辦?烏鴉又發現了紅綠燈,當紅燈亮的時候,車會停下來,這時候下去吃堅果是最安全的。
未來,我們要做的人工智慧應該是烏鴉,而不是鸚鵡。
深度學習基本解決了感知的問題,但是要解決問題,必須要理解問題,從把問題抽象出來並形成概念,然後加上邏輯推理,現在,在抽象、形成概念和理解問題的這些環節還比較薄弱的,也是未來潛力巨大的領域。
群體智慧
有很多實現未來人工智慧的路徑,其中有一種是我個人特別感興趣的——群體智慧。
我們看到不管是鳥群還是螞蟻,蜜蜂還是螢火蟲,它們單體的智商,都非常低。但是,當它們聚集在一起的時候,沒有一個個體控制群體,群體作為一個整體,卻湧現出一種非常高超的,一個具有生命的智慧。
我們大腦當中的神經網路也是類似的,每個神經元的功能都非常簡單,但是,大腦860億個神經元,它們在一起由量變到質變,產生非常高階的智慧。
最後我想用費米的一句話,來結束本文,“宇宙看上去包羅萬物,但其實並不那麼複雜,它只是由數量眾多的,非常簡單的結構組成。”
這輪人工智慧從腦科學、心理學、經濟學,甚至量子力學中都獲取了靈感。未來的人工智慧,將從哪裡獲取靈感呢?
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946594/viewspace-2656877/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 神經網路的發展史神經網路
- 聊聊從腦神經到神經網路神經網路
- 文字生成神經網路架構發展神經網路架構
- 三、淺層神經網路神經網路
- 神經網路:numpy實現神經網路框架神經網路框架
- 神經網路神經網路
- 神經網路篇——從程式碼出發理解BP神經網路神經網路
- 淺聊卷積神經網路的發展卷積神經網路
- 我從未見過如此神經病的打牌遊戲遊戲
- AI之(神經網路+深度學習)AI神經網路深度學習
- Keras深度神經框架Keras框架
- LSTM神經網路神經網路
- 8、神經網路神經網路
- BP神經網路神經網路
- 模糊神經網路神經網路
- 圖神經網路GNN 庫,液體神經網路LNN/LFM神經網路GNN
- 【深度學習篇】--神經網路中的卷積神經網路深度學習神經網路卷積
- 【神經網路篇】--RNN遞迴神經網路初始與詳解神經網路RNN遞迴
- 卷積神經網路卷積神經網路
- 迴圈神經網路神經網路
- 微服務神經元(Neural)微服務
- 神經網路基礎篇神經網路
- 人工神經網路(ANN)神經網路
- 生成型神經網路神經網路
- 機器學習整理(神經網路)機器學習神經網路
- 神經網路入門神經網路
- 深度學習三:卷積神經網路深度學習卷積神經網路
- 【人工神經網路基礎】為什麼神經網路選擇了“深度”?神經網路
- AI神經網路可復原古希臘文字AI神經網路
- 一個故事看懂AI神經網路工作原理AI神經網路
- 人工智慧中神經網路發展緩慢的原因人工智慧神經網路
- 從MobileNet看輕量級神經網路的發展神經網路
- CICC科普欄目|神經網路淺講:從神經元到深度學習神經網路深度學習
- 為什麼說BP神經網路就是人工神經網路的一種?神經網路
- 簡述脈衝神經網路SNN:下一代神經網路神經網路
- 5.2.1 卷積神經網路卷積神經網路
- 迴圈神經網路(RNN)神經網路RNN
- 神經網路初始化神經網路