清華張鈸院士、人大文繼榮院長領銜,論道AI安全與倫理

dicksonjyl560101發表於2019-06-04

https://www.toutiao.com/a6698201162660708867/


清華張鈸院士、人大文繼榮院長領銜,論道AI安全與倫理


我們能達到電影裡的智慧嗎?未來十年最可能實現的AI場景是什麼?如何平衡隱私保護與AI產業發展間的關係?如何看待AI自主性?是否應該給AI分級?

這裡有清華大學AI研究院院長張鈸院士、中國人民大學高瓴AI學院院長文繼榮和搜狐網產品技術總監楊田的思辨。

整理、撰文 |太浪

技術是中立的嗎?

當技術不可控時,達到能夠無中生有、以假亂真的水平時,它還是好的嗎、還是中立的嗎?

如果你還記得今年央視315晚會曝光的「智慧呼叫機器人」、能輕易將一個人的圖片複製貼上到另一個人身體上的DeepFake換臉視訊、能讓蒙娜麗莎「張口說話」的三星AI,或許,你會陷入對上述問題的思考。

AI技術在不斷髮展,也越來越多融入人們的日常生活。但人們對AI的未來尚未定論,面臨著諸多問題。

為更好地探索人工智慧領域的未來發展和解決人工智慧和人類未來共存的所出現的矛盾問題,清華大學AI研究院張鈸院士和清華大學唐傑教授聯合發起「AI Time」science debate,希望更多人蔘與上述問題的探討。

第一場辯論已於昨日下午舉行,張鈸院士、中國人民大學高瓴人工智慧學院院長文繼榮和搜狐網產品技術總監楊田等人對AI安全倫理和社會問題進行深入探討。

筆者列席旁觀了這場辯論,被感染,於是在會後參與到更小範圍的話題討論中。為了讓這場辯論能夠影響到更多人,筆者對辯論會上探討的話題、交鋒的觀點進行了編輯、整理,於此處分享給各位讀者。

Topic 1:

AI什麼時候會達到電影《Her》裡AI語音助手「薩曼莎」的智慧

文繼榮教授 認為,現在所謂人工智慧的產品不太有情感,因為它的優化目標不是倫理的東西,而是完成既定目標。

我們可能能夠在某些區域性做到(智慧),比如利用現在的大資料和深度學習的技術,將你每天發生的事情記錄下來,建一個個性化的模型,可以實現基本的聊天功能,甚至它可能變得比你更懂自己。但是從感情上或者自我意識上做到《Her》那樣的,目前技術還很難實現。

張鈸院士 表示,這種智慧目前是做不到的。

人工智慧目前遇到最大的問題,就是要在對人腦瞭解很少的情況下去做人工智慧,所以就會產生各種各樣的流派,利用這種模糊性來宣傳一些觀點。但是,這些觀點也不是完全胡說八道。

什麼叫做 愛,什麼叫做美,美是主觀的還是客觀的,這些都是特別嚴肅的哲學問題。但這類問題本身的定義就非常模糊。一定意義上,就是自定義。

目前流行的人工智慧主要是基於人類的行為主義學派定義的智慧,即人工智慧在某些行為判定上超過人類。人工智慧如果想要有新思路的發展,哲學層面應該走在前面。

楊田博士 說,《Her》中的人工智慧是很聰明的,像人一樣有情感、有愛情。實際上, 現在感知到的人工智慧產品,基本都是來自於最優化問題衍生出來的 ,離真正做出具有人類情感的智慧,差距還很大。

但是我們要用一個機器模擬出這個現象和行為來,是一件比較可怕的事情,人類其實有可能被人工智慧的機器去利用弱點,反過來被機器所影響。

追問:在未來10年內,最可能實現的AI場景是?

楊田博士 表示,就目前對AI的定義來說,AI可以把很多東西都做得挺好,比如,對話、語音合成。但離通過圖靈測試遠得很。就現在來說,語音相關的技術以及自動駕駛方面的技術其實有很多離實際應用很近。

張鈸院士 說,就目前而言,人工智慧肯定是在很多限制條件下來定義的情況下,才能在某個方面超過人,全面超過人是不可能的。

如果我們要想知道人工智慧究竟能做到什麼程度,首先要定一個標準,什麼叫人工智慧。現在唯一能做的,就是採用哲學裡的行為主義流派。按照行為主義定義人工智慧,是圖靈測試提出來的基本思想。即,機器表現出來的行為跟人一樣或者差不多,就認為它具有智慧。比如,機器做影像識別,識別率接近人或者超過人,就說它在影像識別這個具體條件下,跟人是一樣的。

但是我們後來發現,這兩個實際完全不一樣,AI的魯棒性和抗干擾能力比人差多了。這說明兩者背後用的原理完全不一樣。現在AI只能做到在某些行為上儘量接近人。

文繼榮教授 提出,寫程式的各位可能心裡一直有一個疑惑,為什麼他寫的程式叫人工智慧,自己寫的程式就不叫人工智慧?如果程式的輸出是確定的,就不是人工智慧,如果輸出是模糊的,是帶有不確定性的,可以由精度來衡量,比如人臉識別95%,就是人工智慧。如果程式能夠應付多樣性和變化性,還得到比較高的精度,就是人工智慧。

不精確的東西、有很強的容忍性的場合是將來人工智慧會成功的地方。

Topic 2:AI隱私

總的來說, 張鈸院士 對於在中國用於維護公共利益而設立攝像頭是支援的。他主張如果影響到了公共利益的罪犯要抓,個人要做點犧牲。但他也表示,個人利益和公共利益有些時候是矛盾的,中國比較強調公共利益,西方比較強調個人利益。如何平衡公共利益和個人利益,是一個非常嚴肅、需要認真研究的問題。

文繼榮教授 則表示,目前有些資料的蒐集是完全沒有必要的。歐洲也許過於強調隱私保護,對大資料人工智慧產業的發展造成很大的影響,但是我們也不應該純粹為了發展人工智慧產業而忽略隱私保護。

楊田博士 認為,在座的所有人或多或少都從所謂的個性化推薦上面獲得了便利,可以理解為,通過向系統出賣隱私而換來生活的便利。

攝像頭的存在,事實上確確實實改善了治安環境。中國有句古話叫「舉頭三尺有神明」。在過去,科學還沒有那麼發達的時候,大家相信自己的一舉一動有神在上面看著,所以會約束自己不做壞事,現在,我們不相信神了,發現自己是沒有約束的,這樣帶來不好的事情是,不受監管,這其實慧給所有人帶來損害。在這種情況下,這些技術手段起到了威懾作用。

邊界在於,這種資料採集能不能作為行為不當的證據。

文繼榮教授 看來,隱私問題是懸在我們頭上的劍,而且風險很大。 問題在於我們不能保證資料不會被濫用,很多事情容易越界。 如果這些事情不受監管,是非常值得擔憂的。

Topic 3:AI武器

文繼榮教授 表示,我們對AI的恐懼主要來自於對它自主性的害怕,是對它脫離人的控制的恐懼。

AI有黑箱性以及隨著環境自學習的能力,開始,程式設計師給它一個規則,至於學出什麼模型,會慢慢變得不可控。如果不可控,同時又有很大的威力,就是很可怕的事情。

張鈸教授 說,人類的意志才是戰爭的根本,機器只是被操控的。戰爭不管發展到什麼程度,最後都是按照人類的意志進行的。危險在人,而不在機器。所有機器還是聽人安排、聽人指揮的,包括自主的機器。所謂無人平臺也好、無人機也好,從來沒有無人過,人在地下。

楊田博士 表示,其對AI武器最大的擔憂在於,我們應該允許在沒有經過人類審判的情況下讓武器去消滅一個人嗎?

追問:未來的機器是否有可能做到具有大殺傷力或者帶自主性的程度?

張鈸院士 :自主性不是指隨便讓機器愛做什麼就做什麼,而是把任務安在機器裡,不要老用無線電連起來,機器按照安排好的任務去執行,即使是跟前面斷掉了,沒有無線訊號了,它還照樣能做。即使是有自主性的機器,它也不會主動做一些事情,只會做安排好的任務。

追問:是否應該給AI分級,像自動駕駛一樣?

文繼榮教授 認為,AI可以大致分級,和自動駕駛差不多。實際上,是根據它的智慧體面對環境多樣性或者變化性時的處理程度來定。傳統寫程式,輸入是確定的,輸出是確定的。自動駕駛,最後在所有的場景下都能夠自主地完全用人工智慧來完成駕駛,這是最高階別,不管你遇到什麼情況,都能夠有人自主的反應,能夠做決定。最簡單的是,「把程式寫好寫死」,只有特定的情況下才可以做。還有中間的層級,可以再詳細定義和思考。

楊田博士 也同意分級。他說,從現在人工智慧的發展程度來講,都是在做任務,從解一個小的任務到比較大的任務,到特定的場景下能夠工作,到能夠去做更多的事情,這(分級)也是幫助我們更好地理解現在的人工智慧所處的階段和接下來要做的事情的一個途徑。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2646696/,如需轉載,請註明出處,否則將追究法律責任。

相關文章