一張圖看懂AI、機器學習和深度學習的區別

xiaoming3526發表於2018-09-09

AI(人工智慧)是未來,是科幻小說,是我們日常生活的一部分。所有論斷都是正確的,只是要看你所談到的AI到底是什麼。

  例如,當谷歌DeepMind開發的AlphaGo程式打敗韓國職業圍棋高手Lee Se-dol,媒體在描述DeepMind的勝利時用到了AI機器學習、深度學習等術語。AlphaGo之所以打敗Lee Se-dol,這三項技術都立下了汗馬功勞,但它們並不是一回事。

  要搞清它們的關係,最直觀的表述方式就是同心圓,最先出現的是理念,然後是機器學習,當機器學習繁榮之後就出現了深度學習,今天的AI大爆發是由深度學習驅動的。

一張圖看懂AI、機器學習和深度學習的區別

  從衰敗到繁榮

  1956年,在達特茅斯會議(Dartmouth Conferences)上,電腦科學家首次提出了“AI”術語,AI由此誕生,在隨後的日子裡,AI成為實驗室的“幻想物件”。幾十年過去了,人們對AI的看法不斷改變,有時會認為AI是預兆,是未來人類文明的關鍵,有時認為它只是技術垃圾,只是一個輕率的概念,野心過大,註定要失敗。坦白來講,直到2012年AI仍然同時具有這兩種特點。

  在過去幾年裡,AI大爆發,2015年至今更是發展迅猛。之所以飛速發展主要歸功於GPU的廣泛普及,它讓並行處理更快、更便宜、更強大。還有一個原因就是實際儲存容量無限擴充,資料大規模生成,比如圖片、文字、交易、地圖資料資訊。

  AI:讓機器展現出人類智力

  回到1956年夏天,在當時的會議上,AI先驅的夢想是建造一臺複雜的機器(讓當時剛出現的計算機驅動),然後讓機器呈現出人類智力的特徵。

  這一概念就是我們所說的“強人工智慧(General AI)”,也就是打造一臺超棒的機器,讓它擁有人類的所有感知,甚至還可以超越人類感知,它可以像人一樣思考。在電影中我們經常會看到這種機器,比如 C-3PO終結者

  還有一個概念是“弱人工智慧(Narrow AI)”。簡單來講,“弱人工智慧”可以像人類一樣完成某些具體任務,有可能比人類做得更好,例如,Pinterest服務用AI給圖片分類,Facebook用AI識別臉部,這就是“弱人工智慧”。

  上述例子是“弱人工智慧”實際使用的案例,這些應用已經體現了一些人類智力的特點。怎樣實現的?這些智力來自何處?帶著問題我們深入理解,就來到下一個圓圈,它就是機器學習。

  機器學習:抵達AI目標的一條路徑

  大體來講,機器學習就是用演算法真正解析資料,不斷學習,然後對世界中發生的事做出判斷和預測。此時,研究人員不會親手編寫軟體、確定特殊指令集、然後讓程式完成特殊任務,相反,研究人員會用大量資料和演算法“訓練”機器,讓機器學會如何執行任務

  機器學習這個概念是早期的AI研究者提出的,在過去幾年裡,機器學習出現了許多演算法方法,包括決策樹學習、歸納邏輯程式設計、聚類分析(Clustering)、強化學習、貝葉斯網路等。正如大家所知的,沒有人真正達到“強人工智慧”的終極目標,採用早期機器學習方法,我們連“弱人工智慧”的目標也遠沒有達到。

  在過去許多年裡,機器學習的最佳應用案例是“計算機視覺”,要實現計算機視覺,研究人員仍然需要手動編寫大量程式碼才能完成任務。研究人員手動編寫分級器,比如邊緣檢測濾波器,只有這樣程式才能確定物件從哪裡開始,到哪裡結束;形狀偵測可以確定物件是否有8條邊;分類器可以識別字元“S-T-O-P”。通過手動編寫的分組器,研究人員可以開發出演算法識別有意義的形象,然後學會下判斷,確定它不是一個停止標誌。

  這種辦法可以用,但並不是很好。如果是在霧天,當標誌的能見度比較低,或者一棵樹擋住了標誌的一部分,它的識別能力就會下降。直到不久之前,計算機視覺和影像偵測技術還與人類的能力相去甚遠,因為它太容易出錯了。

  深度學習:實現機器學習的技術

  “人工神經網路(Artificial Neural Networks)”是另一種演算法方法,它也是早期機器學習專家提出的,存在已經幾十年了。神經網路(Neural Networks)的構想源自於我們對人類大腦的理解——神經元的彼此聯絡。二者也有不同之處,人類大腦的神經元按特定的物理距離連線的,人工神經網路有獨立的層、連線,還有資料傳播方向。

  例如,你可能會抽取一張圖片,將它剪成許多塊,然後植入到神經網路的第一層第一層獨立神經元會將資料傳輸到第二層第二層神經元也有自己的使命,一直持續下去,直到最後一層,並生成最終結果。

  每一個神經元會對輸入的資訊進行權衡,確定權重,搞清它與所執行任務的關係,比如有多正確或者多麼不正確。最終的結果由所有權重來決定。以停止標誌為例,我們會將停止標誌圖片切割,讓神經元檢測,比如它的八角形形狀、紅色、與眾不同的字元、交通標誌尺寸、手勢等。

  神經網路的任務就是給出結論:它到底是不是停止標誌。神經網路會給出一個“概率向量”,它依賴於有根據的推測和權重。在該案例中,系統有86%的信心確定圖片是停止標誌,7%的信心確定它是限速標誌,有5%的信心確定它是一支風箏卡在樹上,等等。然後網路架構會告訴神經網路它的判斷是否正確。

  即使只是這麼簡單的一件事也是很超前的,不久前,AI研究社群還在迴避神經網路。在AI發展初期就已經存在神經網路,但是它並沒有形成多少“智力”。問題在於即使只是基本的神經網路,它對計算量的要求也很高,因此無法成為一種實際的方法。儘管如此,還是有少數研究團隊勇往直前,比如多倫多大學Geoffrey Hinton所領導的團隊,他們將演算法平行放進超級電腦,驗證自己的概念,直到GPU開始廣泛採用我們才真正看到希望。

  回到識別停止標誌的例子,如果我們對網路進行訓練,用大量的錯誤答案訓練網路,調整網路,結果就會更好。研究人員需要做的就是訓練,他們要收集幾萬張、甚至幾百萬張圖片,直到人工神經元輸入的權重高度精準,讓每一次判斷都正確為止——不管是有霧還是沒霧,是陽光明媚還是下雨都不受影響。這時神經網路就可以自己“教”自己,搞清停止標誌的到底是怎樣的;它還可以識別Facebook的人臉影像,可以識別貓——吳恩達(Andrew Ng)2012年在谷歌做的事情就是讓神經網路識別貓

  吳恩達的突破之處在於:讓神經網路變得無比巨大,不斷增加層數和神經元數量,讓系統執行大量資料,訓練它。吳恩達的專案從1000萬段YouTube視訊呼叫圖片,他真正讓深度學習有了“深度”。

  到了今天,在某些場景中,經過深度學習技術訓練的機器在識別影像時比人類更好,比如識別貓、識別血液中的癌細胞特徵、識別MRI掃描圖片中的腫瘤。谷歌AlphaGo學習圍棋,它自己與自己不斷下圍棋並從中學習。

  有了深度學習AI的未來一片光明

  有了深度學習,機器學習才有了許多實際的應用,它還擴充了AI的整體範圍。 深度學習將任務分拆,使得各種型別的機器輔助變成可能。無人駕駛汽車更好的預防性治療更好的電影推薦要麼已經出現,要麼即使出現。AI既是現在,也是未來。有了深度學習的幫助,也許到了某一天AI會達到科幻小說描述的水平,這正是我們期待已久的。你會有自己的C-3PO,有自己的終結者。

 

轉載地址:https://blog.csdn.net/dukai392/article/details/70271574

相關文章