本文由 【AI前線】原創,ID:ai-front
作者|Fabio Ciucci
譯者|NER
從20世紀60年代開始,人們就在期待像哈爾(HAL)這樣的科幻級別的AI,然而直到最近,PC和機器人還是非常愚笨。現在,科技巨頭和創業公司宣告了AI革命的到來:無人駕駛汽車、機器人醫生、機器投資者等等。普華永道認為,到2030年,AI將會向世界經濟貢獻15.7萬億美元。“AI”是2017年的熱詞,就像“.com”是1999年的時髦用語那樣,每一個人都宣稱自己對AI感興趣。不要被有關AI的炒作所迷惑,它是泡沫還是真實?和舊有的AI潮流相比,它現在有什麼新穎之處?
AI並不會輕易或迅速地被應用。最令人興奮的AI例項往往來自大學或者科技巨頭。任何許諾用最新的AI技術讓公司發生革命性變革的自封的AI專家,都只是在傳遞錯誤的AI資訊,其中某些人只是重塑舊有技術的形象,把它們包裝成AI。每個人都已經通過使用Google、微軟、亞馬遜的服務,來體驗了最新的AI技術。但是,“深度學習”不會迅速地被大企業所掌握,用來定製內部專案。大多數人都缺乏足夠的相關數字資料,不足以可靠地用來訓練AI。結果就是,AI並不會殺死所有的工作機會,尤其因為它在訓練和測試每個AI的時候還是需要人類。
AI目前已經能夠“用眼睛看到”,並精通一些視覺相關的工作了,比如:通過醫學影像識別癌症或其他疾病,在統計學上優於人類放射科醫師、眼科醫師、皮膚科醫師等,還有駕駛汽車、讀脣語。AI能通過學習樣本(比如畢加索或者你的畫作)畫出任何一種風格的圖畫。反過來,它也能通過一幅畫,補足缺失的資訊,猜出真實的照片是什麼。AI看著網頁或應用的螢幕截圖,就能寫出程式碼製作出類似的網頁或應用。
AI目前還能“用耳朵聽到”,它不只能聽懂你的話,還能通過聽Beatles或你的音樂,創作出新的音樂,或者模擬它聽到的任何人的聲音。一般人無法分辨出一幅畫或一首曲子是由人還是由機器創作的,也無法分辨出一段話是由人類還是AI說出的。
被訓練用來贏得撲克比賽的AI學會了虛張聲勢,能夠處理丟牌、潛在的造假行為,還能誤導資訊。被訓練用來談判的機器人也學會了欺騙,能猜測出你什麼時候在說謊,如果需要它們也會撒謊。一個用來在日語和英語間翻譯或者在韓語和英語間翻譯的AI,也能在韓語和日語間進行翻譯轉換。看起來翻譯AI自己創造了一種中間語言,能不分語言的界限演繹任何一個句子。
機器學習(ML)是AI的一個子類別,它能讓機器從經驗中學習,從真實世界的例項中學習,資料量越大,它就能學到越多。據說,如果一臺機器完成一項任務的表現隨著經驗的增多越來越好,那它就能根據這項任務的經驗進行學習。但大部分AI還是根據固定規則製造出來的,它們並不能學習。從現在開始,我將使用“機器學習”這個詞來指稱“從資料中進行學習的AI”,以此強調它和其他AI的區別。
人工神經網路只是通往機器學習的其中一種方式,其他路徑還包括決策樹、支援向量機等。深度學習是一種具有許多抽象層次的人工神經網路。不去談“深度”這個有炒作意味的詞,很多機器學習方法都是“淺顯的”。成功的機器學習通常是混合的,也就是很多方法的組合,比如樹+深度學習+其他,它們都是被分別訓練而成的,再把它們結合在一起。每一個方法都可能帶來不同的錯誤,所以,平均了它們每一個方法成功的結果,它們就勝過了單獨一種方法。
舊有的AI並不能“學習”。它是基於規則的,它只是幾個人類寫成的“如果……那麼……”。它只要能解決問題就被稱作是AI,但它不是機器學習,因為它不能從資料中進行學習。目前的AI和自動系統中大部分依然是基於規則的程式碼。機器學習從20世紀60年代開始才被人瞭解,但就像人類大腦一樣,它需要大量的計算裝置處理大量的資料。在20世紀80年代,要在PC上訓練一個ML需要幾個月時間,而那時候的數字資料也非常稀少。手動輸入的基於規則的程式碼能快速地解決大部分問題,所以機器學習就被遺忘了。但用我們現在的硬體,你能在幾分鐘內就訓練出一個ML,我們知道最佳的引數,而且數字資料也更多了。然後在2010年之後,一個又一個AI領域開始被機器學習所掌控,從視覺、語音、語言翻譯到玩遊戲,機器學習勝過了基於規則的AI,而且通常也能勝過人類。
為什麼AI在1997年的國際象棋比賽中就擊敗了人類,但直到2016年,才在圍棋比賽中擊敗了人類呢?因為在1997年,計算機僅僅簡單地計算出了國際象棋8x8棋盤中所有的可能性,但圍棋擁有19x19的可能性,計算機要計算出所有可能性需要十億年。這就像要隨機組合出所有字母,以此得到這樣一整篇文章一樣:這根本不可能。所以,人們已知的唯一的希望在於訓練出一個ML,但是ML是近似的,不是確定的,機器學習是“隨機的”,它可以被用於統計分析的模式,但不能用於準確的預測。
機器學習讓自動化成為可能,只要你準備好訓練ML的正確資料就可以了。
大多數機器學習都屬於監督學習,這裡用來訓練的例項都是有標籤的,標籤就是關於每個例項的描述或者標註。你首先需要人工把那些關於貓的照片從關於狗的照片中分離出來,或者把垃圾郵件從正常郵件中分離出來。如果你錯誤地給資料打了標籤,最後ML就會不正確,這至關重要。把未打標籤的資料放到ML裡,這就是無監督學習,在這裡ML會發現有用的資料的模型和群組,但它不能單獨用來解決很多問題。所以有些ML是半監督式的。
在異常檢測中,你可以識別出不同尋常的東西,比如欺詐或者賽博入侵。一個通過老式欺詐訓練出來的ML會錯過那些新式的欺詐。你可以讓ML對任何可疑的不同之處做出警告。政府部門已經開始用ML來偵查逃稅行為了。
強化學習在1983年的電影《戰爭遊戲》中就已經有了體現,在電影裡,計算機通過打通光速中的每一個場景,從而避免了第三次世界大戰。這個AI在百萬計的失敗與嘗試中探索,最終得到了巨大的回報。AlphaGo是這樣被訓練而成的:它曾數百萬次地扮演自己的對手,從而獲得超越人類的技能。它使出了前所未見的招數,人類選手甚至可能會把它看做錯誤的招數。但後來,這些招數被公認為機智非凡。ML開始變得比人類圍棋選手更富有創造性。
在人們認為AI不是真正智慧的時候,“AI效應”就出現了。人們在潛意識裡需要相信魔力,需要相信人類在宇宙中的獨一無二。每一次機器在某一項智慧活動中超越了人類時,比如在下象棋、識別圖片或者翻譯時,人們總是會說:“那只是強力計算能力,那不是智慧。”很多app裡都有AI存在,然而一旦被廣泛應用,它就不再被稱作“智慧”。如果“智慧”只是AI沒有達成的技能(也就是獨屬於大腦的技能),那字典每一年都要被更新,比如:數學在20世紀50年代之前才被認為是智力活動,現在已經不是了。這真是太奇怪了。關於“強力計算能力”,一個人類大腦擁有100萬億個神經元連線,比地球上任何一個計算機所擁有的都多得多。機器學習不能做“強力計算”,如果讓機器學習去嘗試所有連線,那需要花上十億年的時間。機器學習只會“在被訓練的基礎上進行猜測”,並且它使用的計算能力比大腦使用的要少。所以,應該是AI來宣稱人類大腦不夠智慧,來宣稱人類大腦只是強力計算能力而已。
機器學習並不是一個人類大腦模擬器,真正的神經元要不同得多。機器學習是通往真正大腦能力的另一條通路。大腦和機器學習都要處理統計數字(概率)來逼近複雜函式,它們都會給出稍微有點偏差的結果,但這個結果是可用的。機器學習和人類大腦會針對同一任務給出不同的結果,因為它們以不同的方式處理問題。所有人都知道,大腦容易忘記事情,並且在解決特定數學問題的時候也有很多限制,但機器在記憶和數學方面是完美無缺的。然而,那些認為“機器要麼給出確切答案,要麼就是機器壞了”的舊想法是錯誤的、過時了的。人類會犯很多錯,你不會聽到說這個人類大腦壞掉了,而是會聽到讓這個人類大腦更努力地學習。所以,ML也不是壞掉了,它們需要更努力地學習,在更多不同的資料中學習。基於人類偏見訓練出來的ML有可能會是種族主義的、性別歧視的、不公平的,總之最糟糕的還是人類大腦。ML不應該只被資料訓練,不應該只為了模仿人類的工作、行為和大腦。同樣的ML,如果在其他星系被訓練,就能模仿外星人的大腦,讓我們也用外星人的思維來思考吧。
AI正在變得像人類一樣神祕。那些認為計算機無法擁有創造力,不能撒謊、出錯或者像人類一樣的想法,是來自於舊有的基於規則的AI,這些AI確實是可預測的,但它們會隨著機器學習的出現而發生改變。AI一旦掌握了某些新的能力,就被稱作“不夠智慧”,這樣的時代已經結束了,對AI來說,唯一真正重要的區別是:通用AI,或者狹義AI。
和其他科學不同,你無法驗證一個ML是否在使用邏輯化的理論。要判斷一個ML是否正確,你只能通過測試那些不可見的新的資料結果。ML不是一個黑匣子,你可以看到那些它生成和執行的“如果……那麼……”列表,但通常對一個人類來說,這些資料量太大太複雜了。ML是一門試圖重現現實世界之混亂與人類直覺的實用科學,它不會給出簡單的或理論化的解釋。這就好像,你有一個行得通的想法,但你不能具體解釋出自己是怎麼得出這個想法的。對於大腦來說,這被稱為靈感、直覺、潛意識,但對計算機來說,這就是機器學習。如果你能得到一個人在大腦裡做出決定所需的全部神經訊號,你就能理解大腦做出這個決定的真正緣由和過程嗎?或許能吧,但這很複雜。
每個人都可以通過直覺來想象另一個人的臉,可以是現實的臉也可以是畢加索式的臉。人們還能想象一種聲音或者音樂風格。但沒人能用完整而有效的方式來描述一張臉、聲音或者音樂風格的變化。人類只能看到三個維度,即使愛因斯坦也不能有意識地解決500個維度上機器學習一般的數學問題。但我們的人類大腦一直在用直覺解決這種500維的數學問題,就像魔法一樣。為什麼它不能被有意識地解決呢?想想一下,如果對每個想法,大腦都給出它所使用的有上千個變數的公式,會怎樣?那些多餘的資訊會讓我們非常困惑,並且大幅減緩我們思考的速度,這又何必呢?沒有人類能進行幾頁長的數學計算,我們的頭上並沒有進化出USB電纜那樣的東西來。
有缺陷的自動化會提升人類的工作,而不會殺死這些工作。
如果沒有人能預測任何事,那麼機器學習同樣做不到。很多人用多年的市場價格變化來訓練ML,但這些AI還是無法預測市場走向。ML只有在過去的因素和趨勢保持不變的情況下進行預測。但股票和經濟趨勢經常變動,幾乎是隨機的。當舊的資料不再有效或者頻繁出現錯誤的實話,ML就會失靈。已經習得的任務和規則必須保持一致,或至少是很少再變動,這樣你才能再次訓練。舉個例子,學習開車、打撲克、按某種風格畫畫、根據健康資料預測疾病、在不同語言之間進行轉換,這些是機器學習能做到的,舊有的例項在近期未來依然會是有效的。
機器學習能在資料中找到因果聯絡,但它找不到並不存在的東西。比如,在一項名為“使用面部影象自動識別罪犯”的怪異研究中,ML學習了很多在押罪犯和無罪者的面部照片,研究者聲稱,機器學習只根據一張面部照片就能抓到新的“壞人”,但研究者“感覺”,更進一步的研究將駁回根據面貌進行判斷的有效性。他們的資料設定是有偏見的:有些看起來無辜的白領罪犯甚至會嘲笑他們的做法。ML能學到的唯一聯絡是開心或生氣的嘴巴、領子的型別等。那些微笑著的穿著白領的人被分類為無辜誠實的,而那些看起來悲傷的穿黑領衣服的人則和“壞人”相關。那些機器學習專家嘗試著用人們的面部來判斷這個人的好壞,但他們卻不能通過衣著(社會階層)去判斷。機器學習放大了一種不公平的偏見:街上穿著便宜衣服的小賊比腐敗的政客和頂級企業欺詐者更容易被發現並受到懲罰。這種機器學習將會發現所有街上的小賊並把他們投入監獄,但一個白領都沒有。機器學習並沒有像任何一個成年人那樣在我們這個世界生活過,它們不知道在資料以外還有什麼,連那些很“明顯的”也不知道,舉個例子:在一場火災中,火勢越大,被派去的救火車就越多。一個ML會注意到,在一個火場的消防員越多,第二天看到這場造成的破壞就越大,所以正是那些救火車導致了火災破壞。結論:機器學習會以縱火罪把消防員送進監獄,因為這其中有95%的相關性!
(機器學習不能從不存在的東西中尋找相關性,比如:帶有犯罪傾向的面部。但這些資料是帶有偏見的:沒有微笑著的白領罪犯在其中!機器學習會學到這些偏見。)
在某些情況下,機器學習能預測人類不能預測的事情。“Deep Patient”是一個由紐約西奈山醫院用70萬患者資料訓練而來的ML,它能用來預測精神分裂症,而沒有任何一個人類明白要如何預測!只有ML可以做到,人類無法通過學習機器學習而做到同樣的事情。這就是問題所在:對一項投資、醫療、司法和軍事決定來說,你可能想知道AI是如何得出它的結論的,但你無法知道。你無法知道機器學習為什麼拒絕了你的貸款,為什麼判定你入獄,為什麼把一個工作機會給了別人。ML公不公平?它是否帶有種族、性別和其他偏見?機器學習計算是可見的,但它們很難做成人類可閱讀的總結。機器學習就像個預言者那樣講話:“你們人類不理解,即使我展示給你們數學你們也不懂,所以信奉我吧!你測試過了我以往的預測,它們都是對的!”
人類也從來不會完整地解釋他們所做的決定。我們會給出聽起來合理的理由,但卻通常是不完整的過於簡化的理由。那些總能從ML那裡得到正確的答案的人們,會開始編造虛假的闡釋,就是因為這樣會讓公眾更容易認可ML的預測。還有些人會偷偷使用ML,並把得出的想法說成是他們自己的想法。
ML是有限的,就是因為它們缺乏通用智慧和事先的常識。即使把所有專業的ML融合在一起,或者訓練一個ML做所有事情,它依然無法完成通用智慧的工作。舉個例子,拿理解語言來說,你不能和Siri、Alexa或Cortana談論所有話題,就像和真正的人聊天那樣,它們只是智慧助手。在2011年,IBM的Watson在Jeopardy節目中比人類選手回答得更為迅速,但它卻把加拿大和美國搞混了。ML能夠為長文生產出實用的簡短總結,包括做出情緒分析,但卻不能像人類那樣可靠地完成這項工作。聊天機器人無法理解太多問題。目前也沒有任何一個AI能完成對一個人來說很容易的事情:推測一個顧客是否是惱怒的、充滿諷刺的,並進而調整自己的語調。並不存在像電影裡那種通用的AI。但我們依然可以得到一些科幻式AI的細枝末節,也就是那些在某個狹窄專業領域裡勝過人類的AI。最新的訊息是,狹窄領域也可以包括有創造性的或那些通常被認為只有人類能做的事情,比如繪畫、作曲、創作、猜測、欺騙和偽造情緒等,這些看起來都不需要通用的AI。
沒人知道如何造出一個通用AI。這真是棒極了,我們已經擁有了超人類的專業工人(狹義AI),但沒有任何一個終結者或黑客帝國會自己決定要殺掉我們。不幸的是,人類會訓練機器頃刻間殺掉我們,舉例來說,一個恐怖分子可能會訓練一個自動駕駛的卡車衝撞人行道。而擁有通用智慧的AI可能會自我毀滅,也不會遵循恐怖分子的指令。
AI倫理可能將被入侵,並且重新程式設計為非法的模式。目前的AI既不是通用的也不是屬於科學家的AI,它總是會遵從人類的指令。
AI會殺死舊有的工作,但還會創造出新的機器學習訓練員的工作,就和寵物訓練員有點類似,而不像工程師。一個ML比一直寵物要難訓練多了,因為它不具備通用智慧,它會學會它從資料中看到的所有東西,不帶任何篩選和常識甄別。一隻寵物在學會做壞事之前還會三思而後行,比如說殺死它的小夥伴們之類的。然而對ML來說,它為恐怖分子服務或為醫院服務沒什麼區別,而且它也不會解釋自己為什麼要這樣做。ML並不會為自己的錯誤和它為恐怖分子營造的恐怖氛圍而道歉,它畢竟不是一般的AI。
實用機器學習訓練。如果你用手拿著物品的照片訓練一個ML,它會把手看做是這個物品的一部分,也就無法單獨識別出這個物品本身。一隻狗知道如何從人的手上吃東西,而那愚蠢的ML則會把食物連同你的手一起吃掉。要改掉這個問題,那就要先訓練它認識手,再訓練它認識單獨的物品,最後訓練手拿著物品的情況,並打上標籤“手握著物品X”。
版權和智慧財產權法需要更新。就像人類一樣,ML也能發明新的東西。一個ML被展示了現存的A和B兩個東西,然後它生產出了C,一個完全全新的東西。如果C和A、B都足夠不同,也和世界上任何其他東西不同,那C就可以獲得發明或藝術品的專利。那麼誰是這個東西的創作者呢?更進一步,那如果A和B是有專利或者有版權的材料呢?當C非常不同的時候,A和B的創作者就不能認為C是因為A和B的存在而誕生的。我們假設在現有的有版權的繪畫、音樂、建築、設計、化學分子式和竊取的使用者資料基礎上訓練ML不合法,那你如何識別出一個作品是否使用了ML產生的結果,尤其是它並不像畢加索的風格那麼容易識別?你怎麼能知道它有沒有用一點機器學習呢?很多人都會偷偷使用機器學習,並聲稱那些作品是他們自己的。
對一個小公司的大多數工作來說,訓練人工要比訓練機器學習便宜得多。教一個人類開車很容易,但讓機器學會開車去漫長而艱難。當然,也許讓機器來開車比人類要安全,尤其是考慮到那些喝醉了的、睏倦不堪的、看著手機開車的、無視限速的人或者那些本性瘋狂的人類。但那麼昂貴和可靠的訓練只在大公司裡有可能存在。用便宜方法訓練出來的ML既靠不住又十分危險,但只有很少的公司有能力訓練出可靠的AI。一個受訓的ML永遠無法被複制,不像一個大腦的經歷被傳送到另一個大腦中那樣。大的提供商將會售賣未經訓練的ML來完成可重複使用的任務,比如“放射科醫師ML”。ML可以補充一個人類專家,專家總是被需要的,但它可以替代其他“多餘的”員工。一家醫院可以聘用一位放射科醫師監督ML,而不用聘用很多個放射科醫師。放射科醫師這個工作並不會滅絕,只是在每家醫院的工作職位變少了。訓練ML的公司將會把ML賣給多家醫院,從而賺回投資資金。每一年,訓練ML需要的成本都會降低,因為越來越多人將學會如何訓練ML。但由於資料儲備和測試的原因,可靠的ML訓練最終也不會變得非常廉價。在理論上說,很多工作任務都可以被自動化,但實際上只有一部分工作抵得過訓練一個ML的成本。對於那些過於不尋常的工作,比如泌尿科醫師,或者翻譯一種古代的已經失傳的語言,這樣的工作,其人類薪資從長期來看依然比一次性訓練一個ML來的便宜,因為從事這種工作的人數太少了。
在ML研究之外,人類依然會繼續從事通用AI的工作,IQ測試是錯誤的,IQ測試並不能預測人們在生活中的成功,因為那是非常多不同智慧的綜合,視覺、語言、邏輯、人際關係等等,但結果依然不能用量化的IQ數字來衡量。我們認為,和人類IQ比起來,昆蟲是“愚蠢的”,但一直以來,蚊子在“咬完就跑”這樣一個單獨的任務上都勝過了人類。每一個月,AI都在更加狹窄的任務領域打敗人類,就像蚊子的技能那樣狹窄。等到奇點時刻來臨,AI將在所有事情上打敗我們人類,這很可笑。我們正在遇見很多個狹義的奇點,一旦AI在某件事上打敗了人類,所有人都期待著那些監督AI的人放棄他們的工作。我總是讀到這樣的文章,認為人類將能夠保有他們獨一無二的有缺陷的手工工作,但事實上,AI是可以假裝有缺陷的,它們會學著在每一件製成品中做出手工一般的不同缺陷。要預測AI下一個會戰勝什麼領域的人類,這不太可能,AI是有創造力的,但它依然缺乏通用的智慧。舉個例子:喜劇演員和政客的工作是安全的,雖然他們不需要獨特的(狹窄的)學習或學位,但他們就是能夠用幽默和有說服力的事情談論任何事情。如果你的專業是一個複雜卻狹窄的通用任務,比如你是放射科醫師,ML就會受訓來取代你。你需要具備通用智慧!
-全文完-
AI前線提供最新最全AI領域技術資訊、一線業界實踐案例、蒐羅整理業界技術分享乾貨、最新AI論文解讀。歡迎關注我們的公眾號:AI前線