今年八月,來自西雅圖一家AI組織Allen Institute for Artificial Intelligence的科學家公佈了一組給機器出的英語測試題。題目檢驗了機器能否選擇出適合語境的後半句話:
在舞臺上,一位女士坐在了鋼琴旁。她:
A)坐在了長凳上,而她的妹妹在玩玩偶。
B)微笑著聽音樂。
C)在人群中看舞者跳舞。
D)緊張地把手指放到了琴鍵上。
對於你來說,可能是個很簡單的問題,但對於機器則不然。人類能夠答對這套測試題中88%的問題,而機器只答對了大約60%。對於科學家們來說,這個數字已經很不錯了,因為他們深知建造一個能夠理解自然語言的系統有多難。
兩個月以後,Google團隊釋出了撼動自然語言處理(NLP)領域的Bert模型。使用了Bert模型的系統在回答上面的測試題時,正確率與人類不相上下。
Bert的到來為人工智慧的發展帶來了里程碑式的意義。在過去的幾個月中,科學家們能夠證明機器能以通用的方式學習多變的語言,並且應用到不同的具體任務中。例如,虛擬助手Alexa、Google Home,以及在法律、醫療、金融等領域自動分析文件的軟體所運用的技術都能得以提高。
有了Bert,機器終於能跟能人進行自然的對話了。
但是也有一些負面影響:比如當社交媒體平臺運用了這項研究,其中的聊天機器人可能會假裝成人類,我們可能連是在跟人對話還是機器對話都傻傻分不清楚了。
研究學者已經證明了飛速發展的AI技術能夠創造以假亂真的圖片,當這類技術遷移到自然語言領域,我們需要對網上遇到的一切都要更加提高警惕。
這些新的語言系統是通過分析成百上千萬人類寫出來的語句來進行學習的。舊金山一家研究機構 OpenAI研發的一款系統,分析了數千本書籍,包括浪漫小說、科幻小說等文學作品,Google的Bert也研究了同樣的書籍,另外再加上維基百科中的所有內容。
每個系統都是通過分析文字來學習一項特殊的技能。OpenAI系統學習的目的是猜到句子中的下一個單詞是什麼,而Bert是能夠猜出一句話中任何一個缺失的單詞是什麼。但是在掌握這些特殊技能的同時,它們也學習了語言是如何進行組合的。
“如果Bert能夠猜到百萬語句中所缺失的單詞(例如“一個人走近超市買了1 ____ 牛奶”),那麼它也能夠理解語言中單詞之間的關係”,見證Bert誕生的谷歌科學家Jacob Devlin表示。
基於Bert的系統也能夠將相關知識運用到其他任務中去。當研究人員給Bert提供一系列問題及對應的回答,它就能自主學習回答其他的問題。當向它“投喂”描述同一事件的新聞標題時,那麼以後當兩句相似的語句出現時,它就進行識別判斷了。 而一般情況下,機器只能識別完全一致的語句。
Bert能夠完成Allen Institute出的常識測試,也能夠做閱讀理解測試,回答關於百科全書中的問題,例如“氧氣是什麼?” “降雨量是指什麼?” 這類的問題。在另外一個測試中,它能夠對影評進行情感分析,判斷出影評是正面的評價還是負面的。
Bert在機器閱讀理解頂級水平測試SQuAD1.1中表現出驚人的成績:全部兩個衡量指標上全面超越人類,並且還在11種不同的NLP測試中創出最佳成績。
這類技術的出現能幫我們向AI領域中的許多長遠目標邁近一大步,比如總結分析大量複雜的資訊,來協助人們做一些重大決定。
在OpenAI系統公佈的幾周後,其他科學家將其應用到對話當中。一個獨立的科學研究組織利用OpenAI的技術在一個由Facebook AI Lab等機構主辦的比賽中創造了最佳聊天機器人。谷歌開源了Bert程式碼,技術人員則能夠把它應用到不同場景的任務中去。Google科學家Devlin和他的團隊已經用102種語言對它進行了訓練。
在眾多科研人員認為自然語言相關技術已經遇到瓶頸時,像Bert這樣系統的出現讓大家看到了無限潛能。這種技術背後的複雜數學系統叫做神經網路。近些年來,這類深度學習技術加速了人臉識別、無人駕駛等技術的發展。
Bert之所以能成功,部分原因在於它所依賴的神經網路在過去幾年還沒有如此強大的計算機處理能力。利用Google為神經網路搭建的計算機處理器,它能夠在幾天之內分析維基百科裡的所有文章。
Devlin先生說,驅動Bert的想法已存在多年,但它們現在才開始發揮作用,是因為現階段的硬體可以處理更多的資料。
像谷歌一樣,其他幾十家公司正在為這種機器學習專門製造晶片,許多人認為這種額外處理能力的湧入將繼續加速各類AI技術的發展,尤其是自然語言方面的應用。
但質疑的聲音也同時存在。一些學者認為,這項技術可以持續快速發展,是因為研究人員傾向於專注於他們可以取得進展的任務,並避免他們不能做到的任務。這些系統距離真正理解語句或行文中的含義還有很長的路要走。
雖然Bert通過了實驗室的常識測試,但機器距離達到人類常識的高度水平還很遠。但不得不說,自然語言研究的發展軌跡已發生變化,這是一個“爆炸式進展”的時刻。