《自然》雜誌專訪Bengio:謹防AI被濫用的危險

大資料文摘發表於2019-04-16

《自然》雜誌專訪Bengio:謹防AI被濫用的危險

大資料文摘出品

來源:medium

編譯:劉佳瑋、倪倪

Yoshua Bengio對人工智慧的貢獻毋容置疑,上個月他和Geoffrey Hinton和Yann LeCun共同獲得了圖靈獎。

Bengio在從事研究的同時,也擔任著蒙特利爾學習演算法研究所(MILA)的科學主任一職,他對潛在的濫用技術的風險表示擔憂。

 12月,在蒙特利爾的神經資訊處理系統(NeurIPS)會議上,Bengio提出了一套人工智慧領域的道德準則,被稱為蒙特利爾宣言。

1月,Nature在倫敦採訪了Bengio。在採訪中Bengio提到,歐洲在人工智慧方面確確實實落後於中國和美國。另外他還提到,許多最令人擔憂的事情並非在光天化日之下發生。

Q:您是否看到很多公司或國家不負責任地使用AI?

A:有許多這樣的情況,而且實際上可能會有更多,所以我們必須在壞事發生之前發出警示。許多最令人擔憂的事情並非在光天化日之下發生。它發生在軍事實驗室、安全組織,以及為政府或警察提供服務的私營企業中。

Q:您能舉一些例子嗎?

A:殺手無人機很讓人擔憂,這裡既有道德問題也有安全問題。另一個例子是監視。當然你也可以說它具有潛在的積極效益。但特別是對於獨裁政府,濫用的危險是非常現實的。從本質上講,人工智慧是一種工具,可以被掌權者用來保持並強化他們的權力。另一個問題是,人工智慧可以放大歧視和偏見,例如性別歧視或種族歧視,因為這些人類行為都已體現在了訓練資料中。

Q:蒙特利爾宣言與其他類似的宣言有什麼區別呢?

A:我認為這是第一個不僅涉及人工智慧研究人員,而且涉及社會學和人類學圈子裡的廣大學者以及公眾的宣言,這樣的變化可謂意義深遠。由於與專家和公眾進行磋商,我們將原則從原來的7條增致10條。各個組織可以承諾遵循這些原則。

Q:什麼平臺最適合進行人工智慧道德的討論?

A:我們正試圖在蒙特利爾建立一個這樣的組織:關於人工智慧和數字技術社會影響的國際觀察站。它應該邀請到所有行動者加盟:政府——因為他們是要採取行動的人,民間社會專家——包括人工智慧技術專家,社會學、衛生保健和政治學領域的專家,以及正在建造這些智慧產品的公司。

《自然》雜誌專訪Bengio:謹防AI被濫用的危險

Q:我們可以開啟人工智慧的黑盒嗎?

A:可以,但我們必須謹慎行事。因為毋庸置疑,商業公司可能會將事情推向有利於其底線的方向。

Q:您是否認為這一舉措將導致人工智慧的政府或國際法規的推出?

A:是的。自我監管不會起作用。

Q:你認為自願徵稅有效嗎?

A:沒有。遵守道德準則的公司相對於沒有遵守道德準則的公司將處於不利地位。這就像開車一樣,無論是左側還是右側,每個人都需要以同樣的方式駕駛;否則,我們就會陷入麻煩之中。

Q:您曾擔心公司從學術界偷走了人才,這還是個問題嗎?

A:這種現象依然存在,但也有一些好訊息。因為蒙特利爾的人工智慧生態系統不斷髮,我們已初見一些成功的人才逆流,開始有來自加拿大以外的人到加拿大進行人工智慧研究。

另一個在蒙特利爾出現的現象(我認為在世界各地都有),就是在工業界從業的學術級研究人員開始擔任兼職教師的角色,以培育或共同培育大學的研究生。這正發生在MILA。

我們也在致力於更好地培養學生。蒙特利爾的機器學習教授人數翻了一番,這得部分歸功於加拿大政府對這種泛加拿大人工智慧戰略的投資。

Q:你認為歐洲在人工智慧方面落後於中國和美國嗎?

A:是的。但我不認為歐洲應該接受這一點。歐洲有巨大的潛力成為領導者。歐洲有非常優秀的大學。事實上,我們在MILA的許多學生來自歐洲。最近還有一個充滿活力的歐洲初創公司技術社群,分佈在幾個地方。政府開始意識到它的重要性。法國政府可能是第一個朝這個方向邁出重要一步的歐洲政府。

Q:人工智慧的下一個重大事件將是什麼?

A:現如今,深度學習在感知方面取得了巨大進步,但它尚未能夠在發現高階表徵上取得進展,比如我們在語言中使用的概念型別。人類能夠很好地概括使用這些高階概念,甚至嬰兒都能做到這一點,但機器學習非常不擅長。

我們有推斷資料中實際沒有發生的事情能力。例如,我們在生成對抗網路方面取得了一些進展(這種技術建立了個影像生成網路與影像識別網路進行競爭,以幫助改善兩個網路的效能)。

但人類在這方比機器要好得多,我認為重要因素之一是人類對因果的理解。

相關報導:

https://www.nature.com/articles/d41586-019-00505-2


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31562039/viewspace-2641577/,如需轉載,請註明出處,否則將追究法律責任。

相關文章