周濤:在人工智慧時代,做一個警覺的樂觀主義者

大資料文摘發表於2019-01-14

周濤:在人工智慧時代,做一個警覺的樂觀主義者

大資料文摘授權轉載自湛廬閱讀

作者:周濤

2019年1月8日,湛廬成功舉辦了“CHEERS2019·湛廬年度大會”。本文是電子科技大學教授、“資料少帥”周濤老師的演講內容,他的分享以中立性、時效性、導向性、邊界性等4個大維度展開,由此叩問了4個亟待思考的大問題。在技術樂觀派和悲觀派都無所適從的當下,他對於技術的警覺且樂觀充滿了敏銳的洞察力,發人深省。

(以下內容據周濤現場演講記錄整理,速記及圖片來自湛廬閱讀

我們現在處在資訊爆炸的時代,全世界儲存的資訊總量大概有16ZB,也就是1600萬PB,再過十年這個數字還會翻十倍以上,超過200ZB。

周濤:在人工智慧時代,做一個警覺的樂觀主義者

來源:現場PPT

擁有這麼多資料並不代表我們能駕馭它,我們窮其一生都不可能把這些題目讀一遍。所以很大程度上我們依賴於各種各樣的資訊中介,搜尋得到的廣告推薦無一不是從這些平臺而來。所以,與其說我們是資料的駕馭者,不如說我們就像一個嬰兒,因為我們接受的是資訊中介喂的一勺勺“食物”,我們不知道里面有多少營養,又有多少有害物質。

人類花了幾百萬年的時間才適應從樹上跳躍到用雙腳在大地上行走,但是人類從一個資訊極度匱乏的時代,到現在資訊高度富餘的時代只經歷了20年。我本人就是在2000年發出自己的第一封郵件。所以一個很重要的問題是:我們這個社會是否真正為所謂的大資料時代做好了準備。

今天我將從四個方面來談大資料和人工智慧可能帶來的挑戰:

1.中立性

很多人認為技術總體來說是中立的,它理性、客觀、中立,沒有偏差,沒有歧視。但是實際並非如此。

舉個例子,60多年前,羅伯特·摩西斯在紐約做了中央花園的建設,在他的設計中,通向中央花園的長長的走廊的前邊有一個低矮的橋頭。那時美國大部分窮人和有色人種的出行方式都是公交車,但是公交車很高,沒有辦法從橋下開過去。這個看起來中立的設計,其實就使得紐約的中央花園基本變成了富人和白人的樂園。在當時看來這種歧視是無處不在的,但現在我們來看這是不可容忍的歧視。所以一個設計即便是嵌入到城市中,它依然有可能帶來我們不容易發現的一種歧視。

周濤:在人工智慧時代,做一個警覺的樂觀主義者

來源:現場PPT

2018年初,有一篇文章講述了一個很有趣的故事,有人設計了一套推薦系統,這個系統專門給求職的人推薦一些高階的職位,但這個設計對女性來說是不公平的。在中國,薪水前1%的人群裡面,每9個男人才有1個女人,而在美國這個數字是7:1,在日本這個數字是33:1。

這條系統最初的目的很簡單,就是儘可能讓推薦的職位和求職者互相匹配,最終實現一次成功的招聘。但是它很聰明,它超出了我們很多倫理和道德的約束,因為它自動認識到了性別這個特徵非常重要,於是它自己知道,我要儘可能地向男性推薦這些高階職位,少向女性推薦。

在這個系統執行一年多後,開發者發現女性獲得高階職位的資訊量比以前少了,這時他們才反省到,一個看起來越來越精確的系統,客觀上有可能讓女性獲得高階職位的可能性進一步降低。原來他們在獲得同等資訊暴露的情況下,男女比例是7:1,如果聰明的計算機接管了這個推薦系統,未來比例可能在北美就不是7:1,而是10:1,15:1,20:1,所以一個善良的計算機的程式依然有可能導致不公正的結果。

周濤:在人工智慧時代,做一個警覺的樂觀主義者

來源:現場PPT

我從2007年開始就做推薦系統,在所有的廣告推薦中,一個很自然的維度就是要考慮使用者的價格敏感度——看他購買的東西在整個三級品類中的價格排名如何。如果你買了一支八千塊錢的萬寶龍的筆,那你肯定是富人;如果你買了一輛八千塊錢的二手奧拓汽車,那你肯定是窮人。

可以想象,隨著時間的推移,我們對資訊中介的依賴越來越強,當我們到了新城市,可能需要計算機推薦一條一日遊的路線;當我們要看慕課,計算機就會推薦課程,而這個時候,聰明的計算機會根據每個人的家庭出身和原有的學習情況等,做出不一樣的推薦。也就是說,富人和窮人有可能會抵達城市中不同的角落,學習不同的課程,在很小的時候就規劃不同的人生。

那麼,數字化、資訊化,甚至說大資料、人工智慧發展五年、十年、二十年後呢,它們到底是會減弱不同階級間的鴻溝,還是在某些時候,某些場景,會加劇這種鴻溝?這是我希望大家去思考的第一個問題。

2.時效性

2013年我翻譯了《大資料時代》,書裡面有一個故事,它講未來有可能很可怕,我們可能會為還未發出的罪行而付出代價,因為計算機提前預測你會犯罪,提前逮捕了你。

比如,美國國土安全域性會根據一個人的面部長相、姓名、宗教信仰,以及過往的資金流,交通出行的軌跡、通話人的記錄,等等,來判斷一個人疑似恐怖分子的可能性有多大。可汗就是一個非常典型的受害者,他實際上是一個無辜的人,但因為被視為高度恐怖分子,每次他到機場都需要提前五個小時登機,因為他經常會被安檢四個小時。

周濤:在人工智慧時代,做一個警覺的樂觀主義者

來源:現場PPT

如果說恐怖主義距離我們很遠,那大家可以想象一下酒駕。酒駕入刑在中國已經有十年了,這意味著喝酒駕車就是犯罪,這個犯罪背後的法理是很必要的,就好像危害公共安全法是一樣的道理。酒駕並不是在全世界處處皆準,比如在瑞士,大家喝完啤酒開車很正常,這是一種生活方式。禁止酒駕某種意義上講給了我們更多的安全,但是犧牲了一種生活方式。

如果我們再往前走一點,假設二十年後,那時無人駕駛成為一種主流交通方式,我們完全相信,絕大部分交通事故,尤其是惡性交通事故應該是由真人駕駛造成的。我想問大家,如果在座的各位接受了酒駕入刑,那麼在二十年以後有沒有可能接受把真人駕車視為一種違法行為呢?這是我希望大家考慮的第二個問題——有多少安全舒適,多少對未來的焦慮,都要和我們當前的生活模式做一個平衡。

上邊講的是為某種未來可能性付出代價,那麼,反過來講,可能中學的時候我們因為一次衝動打架留下了不良的記錄;可能大學的時候我們為了整容,為了買部蘋果手機,借了校園貸卻沒有及時還款,那麼,這些記錄就有可能在五年、十年後影響你申請購房貸款,影響你買車,甚至影響你的融資。

周濤:在人工智慧時代,做一個警覺的樂觀主義者

來源:現場PPT

中國有句古話說“浪子回頭金不換”,這是因為你的父母、親人和朋友能夠努力忘掉你的過去,相信有一個全新的你出現。人類之所以如此睿智就是因為懂得遺忘,甚至某些時候我們努力遺忘,但是計算機恰恰相反,它的特別能力就是永不遺忘,它能在五年、十年、五十年、一百年都保留著你過去的資訊。

希望大家在時效性這個方向思考的問題是,如果我們有可能會為還沒有到來的未來提前付出代價,又有可能因為過去而影響我們的現在,那我們應該做什麼選擇?我們是不是隻能夠戰戰兢兢,亦步亦趨地沿著所謂的主流價值觀前進?

大家應該知道,中國最可怕的一件事情就是主流價值觀駕馭了一代又一代的人,我們的小孩從小就要讀重點小學、重點中學,然後是讀重點大學,去一流企業,考公務員,讀研究生,要活得像其他人眼中成功的樣子。這樣的主流價值觀已經束縛了我這一代人,未來人工智慧、大資料的發展是會像大家想象的一樣給我們帶來多樣性的世界,還是與之相反,會給我們更大的束縛?

3.導向性

為什麼講這個?因為社會往前發展要有一個總的社會福利增加方向,但是計算機不一定這樣想問題。舉個簡單的例子,以前我們看新聞都是按點選付費,所以會有很多標題黨,希望大家儘快點進去。大家看這張黃黃的圖片,是2017年某知名搜尋網站圖片搜尋第一名,題目叫做“黃色圖片”,但是我相信大家點開看到這張圖片恐怕是失望的。

周濤:在人工智慧時代,做一個警覺的樂觀主義者

來源:現場PPT

這種事情好解決,我們可以想辦法改變函式,使得計算機的目標,或者人工智慧的目標,與人類的正常福利目標一致。比如說,不僅僅是點開率,還有點開新聞之後使用者在頁面停留的時間,這個頁面在第一視窗停留的時間,或者是微信轉發數、點贊數等等,這樣的話似乎矛盾就消失了。

但有時候這種矛盾是長期且不可能消失的。2014年,我們團隊有一位副教授到明尼蘇達大學做了一個聯合專案,是一款網路遊戲。一個問題是,當資源有限時我們要如何分配這些資源,比如說,每天拿出價值十萬美元的裝備免費發給所有的玩家,那這些裝備給誰呢?這是一個典型的優化問題,大規模機器學習的問題。

事實上,我們確實成功使得玩家們在遊戲中花費的時間比之前增加了20%,現在國內知名短視訊平臺也把使用者連續使用APP的時間,從原來的十幾分鍾提高到了三十多分鐘。

這些技術可以用在好的地方,比如在進行網路課程學習的時候,計算機可以通過大家的行為分辨學習難點,找到學習重點,從而幫助大家更好的學習。當這種技術被用在遊戲和短視訊中,則使得使用者更沉迷其中,從商業角度來說是成功的,因為讓使用者更多的玩遊戲,從使用者的角度來講也是成功的。當我們硬幣的兩面都是成功的時候,就沒有任何力量站起來破壞這種成功。

所以,這是我希望大家思考的第三個問題,人工智慧和大資料前進的方向可能會做到面面俱到,讓每一方都滿意,但是它不一定會給社會帶來福利。

4.邊界性

有些東西人工智慧可以做,但是我們要思考要不要讓它做。

我們可以通過計算機識別人的表情,通過微表情和姿態,從而判斷你心中真實的想法。以前我們測謊要用腦電波、電極,再加上測試你的心跳、心率、脈搏、體表電解質、導電水平,現在有一個技術叫做不接觸測謊,只用攝像頭看你,不需要用任何物理接觸,就能精確判斷你是不是在說謊。也就是說,人工智慧實際上有一種能力,它比較容易判斷大家有沒有在說真話,它能夠判斷你是不是真喜歡他,相親物件對你有沒有好感,等等

也許未來你只需要一個十塊錢的APP,再加上一個攝像頭,就能知道那個說喜歡你的男生是不是真的喜歡你。

周濤:在人工智慧時代,做一個警覺的樂觀主義者

來源:現場PPT

現在就回到一個問題,我們經常說人類社會的基石是真相,我們需要真相。但從某種意義上講,我認為人類社會的基石不僅有真相,還要有謊言,沒有真相的社會不能想象,但沒有謊言的社會一定也是苦不堪言,相信各位應該都已經意識到謊言有多麼重要。

如果人工智慧讓我們沒有辦法說謊,那社會真的會繁榮,人們真的會幸福嗎?這是我希望大家考慮的第四個問題,我們到底要把能夠讓人工智慧發揮作用的邊界畫在哪裡?什麼時候?哪些地方?

不管你來自哪個行業,一個以大資料為原材料,以智慧演算法為引擎的新科技時代呼之欲出,而且正在到來,希望大家充分擁抱這樣一個新時代。任何希望用傳統的資源去阻擋或者延遲新時代到來的人,都只可能成為舊時代的關門人和關燈者。

什麼樣的好方法幫助大家儘快的進入新時代?就是湛廬文化韓焱剛才講的——做一個學習者,看那些走在世界最前沿的科學家、創業者,他們的理念和思考。

我個人非常欣賞一句話,“勝利總是青睞有準備的頭腦”。今天這個25分鐘的演講雖然不長,但希望能幫各位為即將到來的新時代做更早、更好、更充分的準備,從而成為新時代的勝利者!

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31562039/viewspace-2557236/,如需轉載,請註明出處,否則將追究法律責任。

相關文章