我們在螢幕上搜尋內容和社交,依靠 GPS 系統來建議最佳路線,通過跟蹤我們的瀏覽習慣的精明演算法來決定購買決策,也會詢問我們的手機上或房間裡的私人助理,那麼問題來了,人工智慧到底是什麼?
語音識別、人臉識別、搜尋查詢 AI,無論我們認為它是有益的還是侵入性的、授權的或操縱的,技術都是人類可以支配的,如何使用它是我們的選擇。研究人員和企業家有著數十年在人工智慧和機器人領域工作的經驗,幫助我們更好地理解人工智慧有時難以捉摸的本質,以及為什麼人工智慧不會很快接管世界或者我們這些弱小的人類,但它的崛起值得關注。
初級階段表現不佳
人工智慧領域充斥著炒作、恐懼和誤解。專家們說,我們需要更少的傲慢和更多的謙卑。Rethink Robotics 的 CEO Rodney Brooks 說,「我認為最大的錯誤認知是 AI 究竟還有多遠,我們一直在研究人工智慧,從 1956 年起就稱它為人工智慧(當時人工智慧之父 John McCarthy 發明了人工智慧一詞),大約有 62 年了,但是它比物理要複雜得多,物理需要很長時間,我認為還處於人工智慧的初級階段」。
Rethink Robotics 的目標是把智慧、負擔得起、易於使用的協作機器人帶到製造業。Brooks 也是 iRobot 公司的聯合創始人,麻省理工學院電腦科學與人工智慧實驗室(CSAIL)的前任主任。布魯克斯是人工智慧發展協會(AAAI)的創始人之一,他在計算機視覺、機器人技術和人工智慧領域取得了許多成就。
他非常關心人工智慧和機器人的誤解資訊,甚至開了個部落格來提供觀點。最近發表的一篇文章對當前的技術趨勢做出了預測,包括自動駕駛汽車、太空旅行、機器人技術和深度學習。Brooks 相信,最近的媒體報導中,很多人工智慧的宣傳都來自於令人驚歎的擬人化和動物啟發的機器人,或者是人工智慧系統在一些比賽中對抗人類。人工智慧現在就到這種程度,處於嬰兒水平。
一些誤解源自於將機器效能與能力等同起來。當我們看到一個人完成某項任務時,我們就可以假定他具備一般的能力,這個人必須具備才能完成這項任務。這和人工智慧不一樣。Brooks 說, 一個人工智慧系統可以很好地玩象棋,但它甚至不知道它在玩遊戲,我們把機器的效能誤認為是他們的能力。當你看到一個程式是如何學到了人類可以學習的東西的時候,你就會犯這樣的錯誤,認為它擁有你所擁有的豐富的理解。
以軟銀旗下的波士頓動力的 Atlas 為例,去年一段 Atlas做後空翻的視訊在網上瘋傳,讓網路陷入狂熱的高潮,警告即將到來的機器人忍者入侵,人工智慧專家說事實並非如此。Brooks提醒道,這些型別的演示都是精心編寫的,它必須快速地進行大量計算,但這是非常小心的設定。Atlas並不知道它在做後空翻,也不知道它在哪裡,更不知道做後空翻的人會知道的各種事情,比如「哇,我剛才倒過來了!」「機器人不知道什麼是上下顛倒!」。它有一些數學方程式,還有力和向量,但它沒有任何推理的方法,這和人類很不一樣。
沒有環境和競爭
人類智慧和機器智慧之間的一個重要區別就是環境,作為人類,我們對周圍的世界有了更大的瞭解,而 AI 不會。
Brooks 說,我們已經在人工智慧領域研究了 60 年,卻還是離真正的 AI 很遠,這就是為什麼他不擔心會有超級智慧的 AI。我們在一些非常狹隘的方面取得了成功,這就是現在的革命而已。
他以亞馬遜的 Alexa 為例,另外還有谷歌助手和蘋果 Siri,「你對 Alexa 說了一些話,甚至在音樂響起的時候,或房間裡的其他人在說話的時候,它也能理解它。它的能力來自於深度學習。因此,一些狹窄的領域變得更好了,我們將會利用這些狹窄的部分來創造出更好的產品。當我開始反思機器人技術時,我們研究了所有的商業語音理解系統。我們當時認為,在工廠裡對機器人進行語音識別是很可笑的。我想現在已經改變了。它可能是有意義的,只是在十年前它沒有而已」。
語音識別編譯正確的字串,精確的字串可以做很多事情,但它並不像一個人那麼聰明。這就是區別,獲取單詞字串是一種很窄的功能,我們還有很長的路要走。這些狹窄的能力已經成為許多盲目樂觀的人工智慧預測的基礎,而這些預測對我們在未來的人類角色過於悲觀。
人工智慧預測?恐懼且誇張
在科學、技術和商業領域一些備受推崇的人物警告說,人工智慧即將毀滅人類。
加州大學伯克利分校工業工程和運籌學教授和傑出主席 Ken Goldberg 說,我們不能相信那些人的話,機器人和人工智慧將突然接管世界,這些人都是聰明人,所以每個人都以為自己知道自己在說什麼。而真正使用機器人技術的人們意識到,儘管這項技術正在取得巨大的進步,但遠不是像電影中描繪的那種人類機器人。
他是 CITRIS People and Robots 倡議的負責人,自動化科學與工程實驗室的負責人,擁有 8 項專利,並被廣泛發表在機器人、自動化和社會資訊過濾演算法的主題上。2000 年,戈德伯格因在教育方面的卓越表現獲得了 RIA 的著名的恩格爾伯格機器人獎,並獲得了其他榮譽和任命。
Goldberg 和 Brooks 都堅決不同意人工智慧誇張的傳播者。他們警告我們要特別警惕這些焦慮,類似人工智慧末日,猖獗的失業,或者是一群超級智慧殺手機器人註定要統治世界。
Goldberg 說,人們對機器人的恐懼由來已久,它可以追溯到古希臘,甚至當你想到對技術執行的恐懼時。從普羅米修斯,到弗蘭肯斯坦,到《終結者》,他引用了一個反覆出現的主題,這個主題深深植根於人類的靈魂之中。我們害怕那些對我們不熟悉的人。我們害怕我們不懂的東西,人工智慧只是被反覆灌輸的同一個故事的最新表現。
專家指出大部分的恐懼來自於那些不在人工智慧領域工作的人。Goldberg 和 Brooks 迴應了許多自動化和機器人內部人士已經知道的事情,機器人技術要複雜得多。Goldberg 說,雖然機器人正在變得越來越好,我們也取得了很大的進步,但我認為緩和這些過高的期望很重要,這樣我們就不會重蹈上世紀 70 和 80 年代的 AI 冬天的覆轍,那時人們對機器人的期望很高,而機器人卻無法實現。與此同時,他們也不想說不會有機器人革命。因為他們確實認為機器人技術將會有更多的應用和應用,但不像人們所說的那樣,機器人即將搶走我們一半的工作。
從研究到現實世界
Goldberg 說,很多恐懼來自於奇點,那是一個假設的時間點,人工智慧和機器人超越了人類的智慧。他認為,我們應該把注意力集中在多樣性上,而不是擔心一種假設,這種假設要麼太遙遠,要麼不太可能,我們應該把注意力集中在多樣性的問題上,在這種情況下,人們和機器的不同組合可以共同解決問題和創新。
在搜尋引擎、社交媒體平臺和電影愛好者、購物者和度假者的眾多應用程式的背後,已經出現了多重性。當我們與這些受支援的服務進行互動時,每次點選或檢視都會傳送一個關於我們的興趣、偏好和意圖的訊號。更好的結果與我們的偏好一致,更好地預測我們下一步想做什麼。這是一個相互依存的關係。每個都需要改進。而且互動越多樣化,彼此就變得越全面。
從實驗室到人工智慧在現實世界中的應用,多樣性是很重要的。另一位專家正致力於將人工智慧引入工業世界,也強調了人類和機器協同工作的重要性,那就是加州大學伯克利分校電子工程與電腦科學系的教授,機器人學習實驗室主任 Pieter Abbeel。
2010 年 Abbeel 的研究團隊釋出了一段展示機器人摺疊衣物的視訊時,大家都非常興奮。人類如何能夠利用這種技術,利用它來使自己變得更聰明,而不是讓這些機器與我們分離?這是挑戰的一部分。當機器成為我們日常生活的一部分時,我們可以利用它來提高我們的生產力,這是當它變得非常激動人心的時候。
Abbeel 是機器人強化學習的先驅,2011 年被 MIT Technology Review 評選為 35 位 35 歲以下的創新者之一,他也是一家公司的總裁兼首席科學家,最近在加州建立了一個新公司,該公司正在開發人工智慧軟體,讓機器人可以自己學習新的技能。他也對人工智慧的前景感到興奮,但他認為一些謹慎是必要的。Abbeel 認為到現在為止有很多進展,因此對人工智慧有很多的興奮,在恐懼方面,最好記住最顯著的進展,比如語音識別、機器翻譯,以及識別影象中的內容,這些都是所謂的監督學習。
瞭解正在建造的不同型別的人工智慧非常重要。在機器學習中,有三種主要的學習方式:監督學習、無監督學習和強化學習。監督學習只是模式識別,從語音到文字,或者從一種語言到另一種語言,這是一種非常困難的模式,但人工智慧並沒有任何目標或目的。用英語給它一些東西,它會告訴你它的中文意思。給它一個口頭的句子,它會把它轉錄成一系列的字母。這是模式匹配。你給它一個模式,比如提供影象和標籤之類的資料,它學習如何從影象到標籤。
無監督學習是當你給它提供影象,沒有標籤的時候,你希望從看到大量的影象開始瞭解這個世界是什麼樣子,然後通過建立這樣的理解,也許在未來它可以更快地學習其他東西。無監督學習沒有任務。只是給它提供大量的資料。
強化學習是非常不同的,更有趣,但更困難。當你給系統一個目標, 目標可能是在電子遊戲中獲得高分,或者贏得一場國際象棋比賽。這就是為什麼有些恐懼是合理的,如果人工智慧有錯誤的目標,會發生什麼?
這就是為什麼人類和人工智慧不會在真空中進化的原因。當我們建造更智慧和更智慧的機器時,我們作為人類的能力將被增強。
Abbeel 說,「讓我非常興奮的是,我們現在正在做的是,人工智慧的最新事件讓人工智慧能夠理解他們在圖片中看到的東西,而不是人類層面的理解。如果一臺計算機能夠真正理解影象中的內容,那麼它可能會拾取兩個物件並將其組裝起來,或者它可以對包進行排序,或者從架子上挑東西。在我看來,不久的將來會有很大的變化,那就是依賴於理解相機給你的東西」。