人工智慧已經深入影響了我們的工作和生活的方方面面。2016年,白宮意識到人工智慧在前沿會議的重要性。無人駕駛汽車的概念已經變成現實:Uber在Pittsburgh的無人車、裝備了完全自主硬體的Tesla最新型號的無人車。Google的DeepMind平臺AlphaGo,擊敗了圍棋的世界冠軍,將預測提前十年就實現了。
馬里蘭大學電腦科學副院長Marie desJardins認為:“增加機器學習的使用,以及基於知識的建模方法”是2017年的主要趨勢。這出大戲,將如何上演呢?
為了預測人工智慧在2017年的趨勢,TechRepublic邀請了幾位專家:杜克大學電腦科學教授Vince Conitzer、Sundown AI公司CEOFabio Cardenas、路易斯維爾大學網路安全實驗室主任Roman Yampolskiy、新南威爾士大學人工智慧教授Toby Walsh。
人工智慧的影響力越來越大
Conitzer認為,公眾對人工智慧帶來的社會影響越來越感興趣,尤其是那些影響比較大的事件。以前就確定了許多普遍話題:技術性失業(InfoQ注:因工業發展所造成的失業;因採用新技術而造成的失業)、自主武器(InfoQ注:指具有人工 智慧無需人類干預就能襲擊目標的武器,通俗的講就是殺人機器人。)、基於偏差資料的機器學習系統、機器學習系統用於識別和壓制異議、人工智慧系統不斷地產生的倫理問題——特定的新技術的發展成敗,都將進一步推動和擴大這些技術話題的影響力。
Conitzer注意到,對AI的興趣已經蔓延到行業外的特定群體,比如,律師將努力解決法律如何處理自主車輛的問題;經濟學家研究人工智慧帶來的技術性失業;社會學家研究更高效的基於AI的推薦系統和個人助理帶來的影響。
Sundown AI公司CEO Fabio Cardenas同意上述觀點,他更進一步表示,人工智慧會影響到組織內的特定角色,如會計、財務、供應鏈、人力資源或由其他專業人士工作的領域。這些增長的領域將會使AI向全球多個行業的多個部門推廣。
離經叛道的人工智慧
終結者情節,是科幻小說中有關AI的常見之作。但是,這情況會不會是真的呢?據Cardenas說,離經叛道的人工智慧,或許會在2017年成為現實。他想象,“出於某些惡意目的,一小撮計算機盜賊為了欺詐機構或個人,創造了人工智慧。”他說,“這種流氓的AI將能入侵那些被認為是固若金湯的系統。”
Cardenas注意到,通過AI進行舞弊的情況已經發生了。他表示:“如果AI的訓練庫被破壞,駭客就可以插進偏見或豁免,以顛覆AI的預測能力,使自己從中獲益。”
Cardenas說,可能的途徑就是,通過“AI開發使其他AI更聰明。”AI能夠通過檢查訓練資料中的盲點來自我完善,“或者,如果我們幸運的話,寫出能夠改善其他AI的程式碼,”他說,結果就是有助於優化AI系統。“但距離一個超級智慧AI,依然有很長的路要走。路漫漫其修遠兮,吾將上下而求索。”
Roman表態,他也認為AI“失敗”或許是2017年的趨勢。
他說,在AI中,最有趣、最重要的趨勢是,也是我正在密切跟蹤的:AI失敗的頻率和嚴重程度將與AI的能力成正比,換言之,當我們獲益時,出現“惡意”AI的可能性也變大了。
人工智慧的倫理問題
我們要如何防止AI叛道離經?這也是許多AI研究人員所關注的問題。總體來說,專家們擔憂AI的倫理問題。因為,AI會犯錯誤,這是顯而易見的:從加強偏見,到種族歧視的辱罵。在極端情況下,不能預防災難性的事故。
參見麻省理工學院的報導:“道德機器”對自主駕駛的眾包決策,但被專家稱之為誤導。
電腦科學中的傳統AI社群,將著手解決工作中越來越多的社會和倫理問題。Conitzer稱:“AI研究人員已經對這些主題產生了興趣,但我們只是想在一開始的時候,搞清楚如何沿著這些路線做出具體的技術貢獻。這就需要仰仗更多的電腦科學家來解決。
Moshe Vardi表示2017年的趨勢應該是:與AI有關的倫理問題將繼續引起關注,圍繞勞動自動化、致命的自主武器、演算法的公平性和透明度的影響。
Walsh聲稱:“我們將會看到,一輛自主汽車撞死一名無辜行人,或騎單車的人,或其他乘客。這將突出這些問題的嚴重性,因為我們在開發和規範AI。”
Walsh還認為,價值取向問題——也就是說,我們如何確保AI與人類有相同的價值觀?“我們今天所做的就是,不再被視為超級智慧的問題,而是一個演算法和機器學習程式。”他說。
來自:InfoQ中文站