Hinton最新專訪:別讓AI解釋自己,AI寒冬不會再來
Hinton 最新專訪:別讓AI解釋自己,AI寒冬不會再來
https://blog.csdn.net/weixin_42137700/article/details/85045808
在這次加拿大G7人工智慧會議上的訪談裡,Hinton談到了對谷歌軍方合同的“私下”抗議,還提出了對現在AI研究的一些看法,比如:
不要讓AI解釋自己,那簡直是個災難。人類大多數時候都沒法解釋自己。
發展AI需要新型的計算硬體(他指的並不是TPU)。
我們在研究中應該追求“新想法”,不能一味看效果。從長遠來看,一個全新的想法比一個微小的改進更有影響力。
另外,Hinton還說:不,不會再有AI寒冬了。
以下是採訪實錄:
Wired :加拿大總理特魯多在G7大會上說,人工智慧帶來了一些道德挑戰,對此需要做更多工作,你怎麼想?
Hinton : 我一直很擔心致命自主武器的濫用。我認為,應該有一個類似於日內瓦公約的東西,像禁止化學武器一樣禁止它們。 就算不是每個國家都簽署這個公約,實際上它也會起到像道德旗幟一樣的作用。誰沒簽你是能看到的。
Wired :有一封抗議Google為國防部提供無人機影像識別服務的公開信,有4500名你的同事簽了名。你簽了嗎?
Hinton : 作為一名Google高管,我認為我不應該公開表達對公司的不滿,所以,我私下表達。 我沒有籤公開信,而是找(Google聯合創始人)謝爾蓋·布林談了談。他說他對這個事情也不滿,所以,這不是他們的追求。
Wired : Google 決定履行完這份合同,但是不會續簽,還發布了一份AI指導方針,其中就包含了不能把這項技術用於武器。
Hinton :我認為Google的選擇是正確的。各種各樣的東西都需要雲端計算,想弄清底線設在哪確實很難。我對Google設定的底線很滿意,那些原則我認為很有道理。
Wired :在日常場景裡,比如在社會服務、醫療等領域用軟體做決策的時候,人工智慧也會帶來道德問題。我們應該當心什麼?
Hinton :我的專業領域是讓這個技術管用,不是社會政策。這裡面確實有一點和我的專業技能相關,就是判斷監管者該不該堅持要求你能解釋AI系統的工作原理。我認為那完全是個災難。
在大多數事情上,人類都不能解釋自己的原理。你招人的時候,是基於那些可以量化的東西來做判斷,再加上各種”直覺”。人們根本不知道自己是怎麼做到的。 如果你讓人類對自己的決定做出解釋,就相當於逼他們編故事。
神經網路的問題也一樣。你訓練了一個神經網路,它學習的是幾十億數字,代表著從訓練資料中提取的知識,輸入一張圖片,它給出正確的決定,比如說這是不是一個行人。但如果你要問“它為什麼這麼想”……如果圖片裡有沒有行人能通過任何簡單的規則來判斷的話,這個問題早就解決了。
Wired :所以,我們怎麼會知道什麼時候能信任這些系統?
Hinton : 應該根據表現來管理它們。你可以用實驗來檢驗有沒有偏見。 對於無人車,我認為人們現在已經算接受了,就算不知道一輛無人車怎麼做到的,如果它發生的事故比人類司機少,那就是好事。我認為我們要像對人一樣來對待這個問題:看他們表現如何。
△ https://arxiv.org/abs/1807.04587
Wired :在你上週發表的一篇論文中, 提及應該進一步研究大腦中的學習演算法。 這是為什麼?
Hinton : 大腦和現在大多數神經網路都不一樣。人類大腦有大約100萬億個突觸,而人工神經網路的權重通常要小1萬倍。大腦使用大量的突觸,從很少的樣本中儘可能多的學習。而深度學習則是利用更少的神經元連線,從大量的樣本中進行學習。
我認為大腦並不關注如何把大量知識壓縮成幾個突觸的連線,而是關注如何使用大量的連線,快速的提取知識。
Wired :那應該如何構建更強大的機器學習系統?
Hinton : 我們需要轉向另一種計算機。幸運的是,我這裡就有一個。
(Hinton說罷把手伸到包裡,掏出一塊耀眼的大晶片。這個晶片是英國初創公司Graphcore的原型產品,這家公司致力於為機器/深度學習演算法開發新型處理器。)
△ 漂亮得不像實力派
大多數用來執行神經網路的計算機,甚至包括Google的專用硬體,都得使用RAM(來儲存正在使用的程式)。從RAM中獲取神經網路的權重代價高昂,所以一旦軟體獲得了權重,就會反覆使用很多次。 想要改變是一個成本巨大的事情。
而在Graphcore晶片上,權重儲存在處理器的快取而不是RAM中,所以不會被移走。 因此某些探索會變得更容易。 比如我們可以搞個一萬億個權重的系統,但是每次訓練只涉及數十億的權重。這種方式更接近大腦。
Wired :AI和機器學習的快速增長,是否也帶來了新的挑戰?
Hinton : 現在一個巨大的挑戰是,如果你想發表一篇機器學習論文,有一些條條框框的限制。如果你用的方法,看起來效果沒那麼好,那就很難發表。我不認為這能鼓勵人們去思考全新的方法。
現在如果你傳送了一個有著全新想法的論文,被接收的可能性非常低,或者會有一些無法理解你想法的初級同行在評審,或者一些看了太多論文的資深評審者,他們都不理解你的論文,並且認為是無稽之談。我認為這非常糟糕。
我們應該追求的,特別是在基礎科學會議上,是一些全新的想法。從長遠來看,一個全新的想法比一個微小的改進更有影響力。 出現這個問題的原因,就是資深人士太少,而年輕人太多。
Wired :這會破壞AI領域的進展麼?
Hinton :用不了幾年,問題就會自行解決。困難都是暫時的。大公司、大學都已經開始培育更多的人才,大學最終也會聘請更多的教授。
Wired :一些學者警告說,目前的AI熱潮還會再次進入寒冬。
Hinton : 不,不會再有AI寒冬了。現在AI都已經在你的手機裡了。當年經歷AI寒冬時,人工智慧還不是人們日常生活的一部分。而現在AI已經是了。
— 完 —
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2285407/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 專訪阿里AI聶再清:不能讓人人無差別享受AI,是程式設計師的恥辱阿里AI程式設計師
- 輕鬆讓別人訪問到自己本地專案
- 機器學習正在產生經濟效益,下一場AI寒冬永遠不會來臨機器學習AI
- 人工智慧教父吳恩達:AI 將改變所有人類工作,下次寒冬不會到來人工智慧吳恩達AI
- 聯合國首席AI顧問專訪:我們期望AI應該是完美的,但這永遠不會AI
- 什麼?又來智慧AI程式設計?讓不讓我們活了!AI程式設計
- AutoML:未來“讓 AI 學習設計 AI”TOMLAI
- 搜狗分身技術再進化,讓AI合成主播“動”起來AI
- 我們即將迎來另一個AI寒冬嗎?AI
- 專訪Michael Jordan:AI的分散式決策與不確定性AI分散式
- 李飛飛專訪:AI不屬於某些小眾群體,AI屬於每個人AI
- Github 最新 AI 開源專案瞭解一下?GithubAI
- 【python教程】打包和釋出自己的專案,讓別人去pipPython
- 李飛飛最新訪談:我每天都在對AI的擔憂中醒來AI
- 史丹佛 2019 全球 AI 報告:當下 AI,尚未進入寒冬AI
- 克隆一個自己的 AI 來上網課AI
- 最新的AI會“殺死”程式設計嗎?AI程式設計
- 最新的AI會使碼農失業麼?AI
- 讓AI不神祕也不神話 AI落地實踐路徑與2大必填坑AI
- 深度學習“見頂”不等於AI寒冬深度學習AI
- 專訪文青松|AI時代的教育革新:深度融合,驅動未來AI
- 原來那個騷擾電話是AI打的!315晚會曝光的這“鍋”AI背不背?AI
- AI寒冬論作者再發文:「深」度學習對資料的理解太「淺」了AI
- AI繪畫的離譜操作,這個AI看來是有自己想法的AI
- 英偉達 GTC 大會不僅有 AI 晶片,還有 AI for ScienceAI晶片
- 讓自動駕駛撞牆,刷別人的臉付賬:最新的AI漏洞讓我們開眼界自動駕駛AI
- 如何讓AI教機器自己玩俄羅斯方塊?AI
- 必看!解讀Salesforce最新AI趨勢報告SalesforceAI
- 讓AI有道德!用AI的方式去發展AIAI
- 活動合作 | AI NEXTCon 矽谷AI技術峰會(北京分會)大咖來襲AI
- Spring AI中函式呼叫Mistral AI最新APISpringAI函式API
- 來也科技釋出UiBot Mage 專為RPA打造的AI能力平臺UIAI
- 最新最簡易的遷移學習方法,人員再識別新模型 | AI一週學術遷移學習模型AI
- 專訪阿里雲 Serverless 負責人:無伺服器不會讓後端失業阿里Server伺服器後端
- 接入Tengine,讓你的AI應用飛起來AI
- AI將為癌症診療帶來哪些變化?來看看AACR年會上的最新研究成果AI
- AI太複雜?別怕!華為雲Model Arts讓你分分鐘玩轉AI!AI
- 最新訪談首次披露拍出「天價」AI畫作背後的故事AI