@那些想要轉行AI的人:送你一份人工智慧入門指南

AI科技大本營發表於2017-11-07


翻譯 | AI科技大本營(rgznai100)
參與 | 彭碩


人工智慧是什麼?人工智慧為何重要?我們應該畏懼人工智慧嗎?為什麼突然之間所有人都在談論人工智慧?

你可能會從網上知道人工智慧如何為亞馬遜和Google的虛擬助理提供支援,或者人工智慧如何一步步地取代所有的工作(有爭議的),但是這些文章極少很好的解釋人工智慧是什麼(或者機器人是否將要接班)。本文將對人工智慧做出解釋,這份簡明指南將隨著領域的發展和重要的概念出現進行更新和改進。


人工智慧是什麼?

人工智慧是具有學習機制的軟體或計算機程式。人工智慧使用這種知識在新的情況下做出決定,就像人類一樣。構建該軟體的研究人員嘗試編寫可以讀取影象,文字,視訊或音訊的程式碼,使得人工智慧從中學習一些東西。 一旦機器學到了,知識就可以在別的地方使用。 如果一個演算法學會識別某人的臉,那麼可以在Facebook照片中找到它們。 在現代AI中,學習通常被稱為“訓練”(將在後文進行介紹)。

人類自然會學習複雜的想法:我們可以看到像蘋果這樣的物件,然後在以後識別一個不同的蘋果。 機器是非常字面化的 - 電腦沒有對“類似”的靈活概念。人工智慧的目標是使機器減少僅基於文字而形成的概念。 機器很容易判斷兩張蘋果的影象或兩個句子是否完全相同,但人工智慧旨在從不同的角度或不同的光線識別同一蘋果的圖片; 它捕捉視覺角度去識別蘋果。這被稱為“泛化”或基於資料的相似性形成想法,而不僅僅是基於AI所看到的影象或文字。 更普遍的想法可以應用於AI以前沒有看到的事情。

卡內基梅隆大學電腦科學教授亞歷克斯·魯德尼奇(Alex Rudnicky)說:“人工智慧的目標是將複雜的人類行為降低到可以計算的一種形式。 “這反過來又使得我們能夠建立對人類有用的可以從事複雜活動的系統。”


今天距離人工智慧還有多遠?

人工智慧研究人員仍在努力解決這個問題的基礎。 我們如何教電腦來識別他們在影象和視訊中看到的內容? 之後,識別如何進入理解 - 不僅產生“蘋果”這個詞,而且知道蘋果是一種與桔子和梨相關的食物,人類可以吃蘋果,可以用蘋果做飯,並用它們來製作蘋果餡餅,並且聯絡到約翰尼·蘋果派的故事,諸如此類。 還有一個理解語言的問題——詞根據語境有多重含義,定義總是在演變,每個人的說法都有一點點差別。 電腦如何理解這種不固定的,千變萬化的語言構造?

由於介質不同,人工智慧的進展速度也不相同。現在,我們看到了在理解影象和視訊能力的驚人增長,這是一個業界稱之為計算機視覺的領域。但是,這一進步對其他人工智慧的理解並沒有多大幫助,這是一個被稱為自然語言處理的領域。這些領域正在發展有限的智慧,這意味著人工智慧在處理影象、音訊或文字方面具有強大的功能,但卻無法從這三者中學習到同樣的方法。一個不可知論的學習形式是一般智力,這是我們在人類身上看到的。許多研究人員希望,各個領域的進步將揭示更多關於我們如何讓機器學習的共享真理,最終融合成統一的人工智慧方法。


人工智慧為什麼重要?

一旦人工智慧學會了如何從影象中識別出一個蘋果,或者從音訊片段中轉錄出一個語音片段,它就可以被應用於其他軟體中,做本應該需要人類來做的決策。它可以用來識別和標記你的朋友在Facebook的照片,你(一個人) 本應該手工做的事情。它可以從自動駕駛汽車或者你的車的倒車影像裡識別出另一輛車或者一個街頭標誌。它可以用來定位農業生產中應該移除的劣質農產品。這些任務,僅僅基於影象識別,通常是由使用者或公司提供軟體的人完成的。

如果一個任務節省了使用者的時間,它是一個功能,如果它能節省了公司裡工作的人的時間甚至完全消除了一份工作,那麼它就是一個極大節約了成本。有一些應用程式,比如在銷售分析的幾分鐘內處理數百萬個資料點,如果沒有機器,是不可能實現的,這意味著以前從未有過的新資訊的潛力。這些任務現在可以通過機器在任何時間和任何地點快速、廉價地完成。它是人類曾經完成的任務的複製,對於無限可伸縮的低成本勞動力來說,這是不可否認的經濟利益。

卡內基梅隆大學人類計算機互動實驗室的教授Jason Hone說,雖然人工智慧可以複製人類的任務,同時它也有能力開啟新的勞動。“汽車是馬的直接替代品,但在中長期內,它還帶來了許多其他用途,比如用於大型運輸的半卡車,傢俱搬運貨車,小型貨車,帶折蓬的汽車。”Hong說“同樣地,人工智慧系統在短期內將直接取代常規任務,但在中長期內我們將看到它和汽車一樣的戲劇性使用。

就像Gottlieb Daimler和Carl Benz沒有考慮到汽車將如何重新定義城市的建造方式,或者汙染或肥胖的影響,我們還沒有看到這種新型勞動力的長期影響。


AI為什麼現在這麼火爆,而不是30(或者60)年前?

關於人工智慧應該如何學習的許多想法實際上已經超過了60年。上世紀50年代,像Frank Rosenblatt、Bernard Widrow和Marcian Hoff這樣的研究人員首先研究了生物學家認為大腦的神經元是如何工作的,以及他們在數學上做的事情。我們的想法是,一個主要的方程可能無法解決所有問題,但是如果我們像人腦那樣,使用了很多連線起來的方程會如何呢?最初的例子很簡單:通過數字電話線路分析1和0,然後預測接下來會發生什麼。(這項由Widrow和Hoff在普林斯頓大學完成的研究,仍然被用來減少電話連線的回聲)。

@那些想要轉行AI的人:送你一份人工智慧入門指南

2006年,達特茅斯會議五十年後,當事人重聚達特茅斯。左起:摩爾,麥卡錫,明斯基,賽弗裡奇,所羅門諾夫

數十年來,電腦科學界的許多人認為,這個想法永遠不會解決更復雜的問題,而現如今它是主要科技公司的實現人工智慧的基礎,從谷歌、亞馬遜到Facebook,再到微軟。回顧過去,研究人員現在意識到,計算機還沒有複雜到足以模擬我們大腦中的數十億神經元,而且我們需要大量的資料來訓練這些神經網路,正如我們瞭解的那樣。

這兩個因素,計算能力和資料,在過去的10年裡才得以實現。在2000年代中期,圖形處理器單元(GPU)公司NVIDIA表示,他們的晶片非常適合執行神經網路,並開始使得AI在其硬體上執行變得更加容易。研究人員發現,如果能夠使用更快、更復雜的神經網路,就可以提高準確度。

然後在2009年,人工智慧研究員Fei-Fei Li釋出了一個名為ImageNet的資料庫,它包含了超過300萬個有組織的圖片,在裡面還新增了標籤。她認為,如果這些演算法有更多的例子來尋找到模式之間的關係,那麼它就能幫助他們理解更復雜的想法。她在2010年開始了一場ImageNet的競賽,到2012年,研究人員Geoff Hinton使用了數百萬張圖片來訓練神經網路,以超過10%的準確率的巨大優勢戰勝了其它的應用。正如Li所預測的,資料是關鍵。Hinton還把神經網路堆在另一個上面,一個只是找到了形狀,而另一個則看了紋理,等等。這些被稱為深度神經網路,或深度學習,也就是今天你在新聞中聽到的關於人工智慧的訊息。一旦科技行業看到了結果,人工智慧的繁榮就開始了。數十年來,一直致力於深度學習的研究人員成為了科技行業新的搖滾明星。截止2015年,谷歌有超過1000個專案使用了某種機器學習技術。


我們應該恐懼人工智慧嗎?

看過終結者這樣的電影后,人們很容易就會害怕像天網這樣的全能的邪惡的AI。在人工智慧研究領域,天網被稱為一般的超級智慧,或者人工通用智慧,這類軟體在各個方面都要比人腦更強大。

@那些想要轉行AI的人:送你一份人工智慧入門指南

由於計算機能夠擴充套件,這意味著我們能夠製造出更強、更快的計算機,然後把他們連線起來。恐懼是來自於這些機器人大腦的計算能力可能會增長到一個深不可測的水平,如果他們真的聰明到那個地步,他們就會無法控制,並會繞過任何試圖關閉他們的人。這就是埃隆馬斯克和史蒂芬霍金這樣極其聰明的人所擔心的世界末日。正如馬斯克所言,雖然它們在某些領域的確擁有智慧,但大多數主流人工智慧研究人員都對召喚惡魔的說法不以為然。儘管研究人員把學習的基本原理打破了,例如他們改變了如何去理解模式背後的意義,然後把這些新的理解組織成一個功能性的世界觀,目前還沒有證據表明電腦會有需求,慾望或著意志來存活,Facebook 人工智慧研究中心的領導Yann Lecun說道。

“當我們受到威脅,我們嫉妒,我們想要獲得資源,比起陌生人我們更喜歡我們的近親,等等這些行為時,我們會變得更暴力,這些都是進化中為了我們的生存而建立起來的。除非我們很明確的把這些基本行為建立到智慧機器裡,否則它們不會有這些行為。”他在Quora上寫道。

沒有證據表明計算機會認為人類是一個威脅,因為沒有給計算機定義這樣的威脅。也許人類能夠定義它,並告知機器在一些引數中運作,這些引數在功能上就像一個生存的意志,而這個意志並不存在。

谷歌公司的創始成員、百度前人工智慧負責人吳恩達說,“我說過,我不擔心人工智慧變邪惡的原因跟我不擔心火星上人口過多的原因是一樣的。” 但是有一個原因讓我們害怕人工智慧:人類。

有證據表明,人工智慧對從它學習的資料中獲取人類偏見很敏感。這些偏見可能是無害的,比如識別圖片中的貓比狗更常見,因為它是被更多的貓圖片訓練出來的。但是,它們也可能會把刻板印象延續下去,比如相比其他性別或種族,AI更多的把醫生和白人男性聯絡起來。如果一個有這種偏見的人工智慧負責招聘醫生,那麼它可能會對那些非白人男性的員工造成不公平。ProPublica的一項調查發現,用於判決那些被判有罪的人的演算法存在種族偏見,因為其對有色人種的人提出了更嚴厲的判決。衛生保健資料通常不包括婦女,尤其是孕婦,這樣在向這些人提出醫療建議時,會導致系統功能不完整。由於這些機制之前是由人類來做的,而現在我們擁有一臺速度更快的超級強大的機器,我們就要確保它們能夠在我們的道德規範中公平而一致地做出這些決定。

要判斷一個演算法是否有偏見並不容易,因為深度學習需要數以百萬計的連線計算,通過所有這些小的決策來計算出它們對更大的決策的貢獻是非常困難的。因此,即使我們知道人工智慧做出了一個糟糕的決定,我們也不知道它是什麼原因,也不知道它是怎麼做的,所以在它實施之前很難建立起一個機制來捕捉到偏見。

在自動駕駛汽車這樣的領域,這個問題尤其不穩定。在自動駕駛汽車上,每一項決定都可能事關生死。早期的研究表明,我們很有希望能夠逆轉我們所創造的機器的複雜性,但現在幾乎不可能知道為什麼Facebook、谷歌或微軟的人工智慧做出了任何決定。


功能性AI術語表:

演算法:一套計算機要遵循的指令。一個演算法可以是一個簡單的單步程式也可以是一個複雜的神經網路,但是通常被用來指一個模型。

人工智慧:這是一個統稱。廣義上說,軟體意味著模仿或取代人類智慧的各個方面。人工智慧軟體可以從影象或文字、經驗、進化或其他研究人員的發明等資料中學習。

計算機視覺:人工智慧研究探索影象和視訊識別和理解的領域。這個領域從瞭解蘋果的外觀,到蘋果的功能用途,以及與之相關的理念。它是被用作自動駕駛汽車、谷歌影象搜尋以及Facebook上自動貼標籤的主要技術。

深度學習:一個神經網路被分層來理解資料中的複雜模式和關係的領域。當一個神經網路的輸出成為另一個神經網路的輸入時,有效地將它們疊加起來,由此產生的神經網路就是“深度”了。

普通智力:有時被稱為“強人工智慧”,一般智慧將能夠在不同的任務中學習和應用不同的想法。

生成式對抗網路:這是一個包含兩個神經網路的系統,一個是用來生成輸出的,另一個是用來檢驗這個輸出的質量是否是想要的輸出的神經網路。例如,當試圖生成一個蘋果的圖片時,生成器將生成一個影象,而另一個(稱為鑑別器)如果不能識別影象中的一個蘋果,會使生成器再次嘗試生成。

機器學習:機器學習(ML)常常與術語人工智慧結合在一起,是使用演算法從資料中學習的慣例。

模型:模型是一種機器學習演算法,它可以建立自己對某一主題的理解,或者它自己的世界模型。

自然語言處理:用於理解語言中思想的意圖和關係的軟體。

神經網路:通過連線起來的數學方程式的網路,模擬大腦處理資訊的方式以建立起來的演算法。提供給神經網路的資料被分解成更小的塊並根據網路的複雜性分析其基礎模式成千上萬次。當一個神經網路的輸出被輸入到另一個神經網路的輸入時,這兩個神經網路就會連結到一起成為分層,成為一個深層的神經網路。通常,深度神經網路的層會分析越來越高的抽象層的資料,這意味著,在得到最簡單和最準確的資料表示之前,它們會將有用資料從沒有必要的資料中提取出來。

卷積神經網路:一個主要用來識別和理解影象、視訊和音訊資料的神經網路,因為它能夠處理密集的資料,比如數百萬畫素的影象或數千個音訊檔案樣本。

遞迴神經網路:一種用於自然語言處理的神經網路,它可以週期性地、連續地分析資料,這意味著它可以處理像單詞或句子這樣的資料,同時在句子中保持它們的順序和上下文。

長短期記憶網路:一種週期性的神經網路的變體,它的是用來根據資料來保留結構化的資訊。例如,RNN可以識別句子中的所有名詞和形容詞,檢查它們是否被正確使用,但LSTM可以記住一本書的情節。

強化學習:一種能夠從經驗中學習的深度學習演算法。是可以控制環境的某些方面的演算法,比如視訊遊戲的角色,然後通過反覆試驗和錯誤來學習。由於它們是高度可重複的,作為三維世界的模型,並且已經在電腦上玩了,許多強化學習的突破都來自於玩視訊遊戲的演算法。在DeepMind的AlphaGo中,RL是機器學習的主要型別之一,它在圍棋中擊敗了世界冠軍Lee Sedol。在現實世界中,在網路安全等領域已經證明了這一點,軟體學會了欺騙反病毒軟體,使其認為惡意檔案是安全的。

超級智慧:比人腦還要更強大的人工智慧。很難定義它因為我們仍然無法客觀地衡量人類的大腦能做什麼。

監督式學習:在被訓練的過程中,給其提供的資料是已經組織好的、已經被貼好標籤的機器學習。如果你正在建立一種監督式的學習演算法來識別貓,你就可以在1000張貓的圖片上訓練這個演算法。

訓練:通過提供資料來讓演算法學習的過程。

無監督學習:機器學習演算法的一種,沒有給出任何關於它應該如何對資料進行分類的資訊,並且必須找到它們之間的關係的演算法。像Facebook LeCun這樣的人工智慧研究人員將無人監督的學習視為人工智慧研究的聖盃,因為它與人類自然學習的方式非常相似。“在無人監督的學習中,大腦比我們的模型好得多”,LeCun告訴IEEE光譜,“這就意味著我們的人工學習系統缺少了一些非常基本的生物學習原理”。


相關文章