雲腦黃頌受邀參加一刻talks「2018先見未來大會」,述人工智慧所面臨的倫理挑戰

雲腦科技發表於2018-10-30

2018年10月19日至10月21日,一刻talks在北京77劇場舉辦“以思想激盪思想,以靈感啟發未來”主題的先見未來大會。大會邀請了100位全球傑出領袖圍繞智慧科技、生物基因、商業創新和未來教育四大領域分享新知。

雲腦黃頌受邀參加一刻talks「2018先見未來大會」,述人工智慧所面臨的倫理挑戰

雲腦科技黃頌受邀參加了19日舉辦的先見大會•智慧科技專場。在大會上,黃頌發表以“人工智慧所面臨的倫理挑戰”為主題的演講。

企業在利用人工智慧技術為人類提供便捷的同時,如何保證人們的資料隱私問題是現在人們關注的熱點話題。黃頌闡述了現有資料隱私保護技術:資料匿名化、Apple提出的差分化隱私的概念和Google提出的聯盟學習的解決方案,並且分析了這三種資料隱私保護技術的優劣勢。雲腦科技的資料隱私保護專利BrainSync技術,希望能夠抹平現有資料隱私保護技術的弊端,更好地保護使用者的資料隱私。2016年發生的特斯拉自動駕駛事故引起大眾的廣泛關注,事故的責任判定問題更讓模型可解釋的必要性浮出水面。黃頌以雲腦科技在人才招聘領域的模型可解釋性實踐為例,闡述了雲腦科技在為企業人才招聘助力的同時,如何給出判定結果的依據。在演講的最後,黃頌提及了人工智慧對人類威脅最大的問題——安全與和平,黃頌表示:“希望有一天,人工智慧賦予機器人的強大力量將會被用於保護人類的和平,而非手足相殘。”

黃頌演講影片 (影片由一刻talks提供)

以下是演講全文:

大家好,我是一刻talks的講者黃頌,一名人工智慧的從業者。在過去的十多年間,我利用人工智慧技術,在微軟亞洲研究院嘗試過從全世界的Windows軟體質量資料中自動發現程式碼的缺陷,在愛幫網嘗試過為數千萬使用者精挑細選本地服務商家,在美麗說嘗試過幫數億的女性使用者推薦時尚的服飾搭配,在雲腦科技嘗試過幫助通訊和金融的企業使用者提高變現效率或監管水平。

今天我想和大家聊聊人工智慧所面臨的倫理挑戰這個話題。

曾經,我天真地以為,作為一名碼農,只需要安分地寫好程式碼就可以了——只要我的產品經理不會向我提出一些奇葩的要求,比如說,要求app的主題能根據手機殼的顏色自動調整——我應該不會和人大打出手,也不會和法律、道德、倫理、價值觀扯上什麼聯絡。

直到2016年的中秋節,網際網路發生了一件轟動一時的事情。某公司給大家發月餅福利,在內網組織了一次秒殺活動。秒殺活動,大家知道,主要是拼速度,刺激且相對公平。但是,有一位懵懂無知的程式設計師,稍微show了一下智商,寫了一段自動搶月餅的指令碼。當天下午四點,他如願搶到了十六個月餅。但是,四點半的時候他被領導約談,五點半籤解約合同,六點被要求離開公司。因為,公司認為,他的行為與公司的價值觀不符。你看,寫程式碼的也遇到了價值觀的問題。快手的CEO宿華也曾經反思到,“演算法的背後是人,演算法的價值觀就是人的價值觀,演算法的缺陷是價值觀上的缺陷”。

不僅僅是價值觀,大資料人工智慧技術經過野蠻生長,已經滲透到我們在座每一個人生活的方方面面,同時也帶來了各式各樣的倫理道德問題。

我先來說說資料隱私。

我們知道,人工智慧本次的繁榮復興離不開兩大技術,深度學習大資料深度學習就是一種表達能力靈活多變,並且透過不斷嘗試最佳化逐漸逼近目標的機器學習方法。而大資料則是在2000年前後,隨著資訊交換、資訊儲存和資訊處理三項能力的大幅提升而產生的海量資料。深度學習就好比一臺效能強勁的汽車引擎,而大資料則是源源不斷輸入這臺引擎的燃料。

正是大資料的採集,引發了人們對於隱私保護問題的擔憂。

雲腦黃頌受邀參加一刻talks「2018先見未來大會」,述人工智慧所面臨的倫理挑戰

據不完全統計,我們國家的攝像頭數量已經超過一億,在全世界居於首位。基本上每個城市80%到90%的資料都是影片資料,一般的城市的資料量都是在幾十個PB的規模。每個城市差不多有3萬到10萬部攝像頭,而像深圳、北京這樣的大城市則達到了六七十萬部。想想看,每天我們只要出門,就會暴露在這麼多攝像頭的監控之下。結合人臉識別、語義分析、GPS定位等技術,並關聯其它一些電子化的資料,比如交通卡、門禁卡、銀行卡的刷卡記錄,已經可以比較完整地勾畫出一個人的行為軌跡,甚至保留了當時的穿著打扮、面部表情這些細節。

再舉個例子,現代人的生活已經離不開手機。有資料表明,一般人平均每4分鐘就會看一次手機。每天我們在手機上產生大量的資料,其中絕大部分是你不願和其他人分享的私密資訊。比如,用了哪些app,和誰聯絡過,聊了什麼內容,叫車去了哪裡,拍了哪些照片,搜尋過什麼關鍵詞,等等等等。相信我,你根本搞不清楚手機上那些令人眼花繚亂的安全隱私設定。淨結果就是,你根本不知道誰正在將你的隱私資訊轉化成為源源不斷的商業利潤。

歐洲是對個人資料的保護最為關注的地區之一,今年5月25日生效的GDPR法律就是很好的例證。歐美企業正在面臨越來越嚴苛的隱私監管,它對不合規的企業將處以2千萬歐元或者全球營收4%的取高的罰款。請注意,是全球營收的4%。

然而,我覺得,僅僅靠法律的威懾是不夠的,人工智慧的應用的設計者們應該從底層架構上對隱私資料進行足夠保護。

雲腦黃頌受邀參加一刻talks「2018先見未來大會」,述人工智慧所面臨的倫理挑戰

我以移動裝置為例,簡單解釋一下。最基本的保護叫做資料匿名化,比如系統會將一個人的姓名轉化成為一串不可還原的數字串,這樣就無法知道這個人原來的名字是什麼。這是最基本的隱私保護。進而,Apple提出了差分隱私的概念,它透過在原始資料中加入噪音來保護真實的資料。當然,噪音加得越多,對資料的保護就越好,但是模型精度的損失就越大。差分隱私讓我們可以相對定量地對隱私進行保護。可是,對一般使用者來說,雖然加了噪音,但資料離開終端上傳到雲端,仍然令人不安。因此,Google提出了所謂聯盟學習的解決方案——資料並不離開終端裝置,直接就地訓練,但並不保證滿足差分隱私的要求。然而,這種方案並沒有完全考慮到手機端裝置在資料分佈、計算能力、網路資源上極度異質化的特點。我們雲腦科技目前正在研發的BrainSync專利技術正是針對這點進行改進,希望在隱私保護和模型精度之間找到更好平衡。

其次,讓我們將目光轉向人工智慧的法律責任這個話題。當人工智慧發展得越來越強大,在某些方面已經可以完勝人類的時候,從理智上來講,將更多的決策任務交給AI是更加合理的選擇。然而,不知道你是否想過,當一個決策是AI代替或者輔助人類作出的時候,一但決策失誤,這個鍋將由誰來背呢?

2016年5月7日,美國佛羅里達州,一名40歲的男子坐在一輛自動駕駛模式的特斯拉轎車上,全速撞上了一輛橫穿公路的白色拖掛車,最終車毀人亡。美國國家公路安全管理局最終給出了這起事故的調查結論,特斯拉的自動駕駛模式設計並無明顯缺陷,但是同時,駕駛員也沒有明顯過錯。對這起事故各方責任的界定陷入了困境之中,因為傳統的法律認為,無過錯無責任。在醫療、金融、法律這些領域當中,決策失誤很可能帶來比較嚴重的後果,甚至帶來生命或財產的損失,所以人工智慧的應用必須慎之又慎。

雖然各國的立法者目前在此類事故責任界定問題上並未達成一致,但有一點大家是有共識的,那就是,人工智慧系統必須在程式層面具有可追責的特性,能夠清楚地解釋在每個環節上為什麼採用特定的方式運作。模型的可解釋性不僅僅可以用於追責,也可以給業務人員更好的直觀感受,從而提升他們對AI系統的信任程度和理解水平。

前面我們說過,深度學習人工智慧發展史上的一次重要革命,但是,它自身的可解釋性並不好。在實際應用的時候,或者需要對深度模型演算法進行較大的改造,或者需要選擇其它合適的非深度模型。我們團隊很早就意識到可解釋性對於人工智慧技術在行業落地的重要性,在金融監管、手機通訊、人力招聘等行業都有很成功的案例。以人力招聘為例,其最核心的一個演算法問題是人崗匹配。傳統的深度學習演算法並不能給出一個簡歷和一個崗位匹配度為87分的合理解釋。而我們的演算法,經過仔細的設計,可以向客戶清晰地解釋匹配的原因。例如,簡歷上寫的“曾負責學校公眾號的管理”可能暗示著候選人“有新媒體運營經驗”,而簡歷上描述的“熱心社團活動”可能滿足崗位對於“良好的團隊合作意識”的這項要求。

雲腦黃頌受邀參加一刻talks「2018先見未來大會」,述人工智慧所面臨的倫理挑戰

最後,我們再來看一個對人類威脅更大的話題,殺人機器人。

在聯合國大會上公開展示過的一種殺人機器人,從硬體和軟體配置上來看,非常像一個配備有攝像頭和感測器的飛行器。它可以做人臉識別,並沒有什麼稀奇。不過,它同時會攜帶異型炸藥,並且被程式設計注入了創造者的意志,去完成一個特定的任務,比如消滅一個人類。它不會妥協,不會恐懼,不會背叛,不會中止,並且可以被低成本大量複製。這些特性足以讓它成為比一般人類殺手或者士兵更恐怖的殺戮機器。

2018年的7月18號,馬斯克、哈薩比斯等2000多人簽署宣言:決不允許殺人機器人出現!因為這些人類的頂級人工智慧專家們非常清楚,一但潘多拉的盒子被開啟,就再也關不上了。

可是,我非常悲觀地覺得,這樣的宣誓毫無約束力。

日本的科幻小說家貴志祐介寫過一本小說《來自新世界》。在小說描繪的未來世界中,相當一部分人類掌握了一種被稱作“咒力”的超能力,可以輕易地殺死另一個人,甚至毀滅一座城市。人類因此陷入了恐慌。為了防止咒力被濫用,人類發明了攻擊抑制和愧當機制,希望改變基因來控制人類自相殘殺的行為。可是百密一疏,基因會有缺陷,咒力也會外洩。在小說中,人類因此付出了慘痛的代價。

大家不妨類比一下,未來的人工智慧技術,也許就像小說中的咒力,為大眾所掌握,可以用於創造也可以用於毀滅。科幻小說家的擔憂,也許並不是空穴來風。如何防患於未然,是全人類繞不過去的一個倫理抉擇。

令人略感欣慰的是,國際社會對於人工智慧倫理的探索,從未停止過。最著名的研究成果之一,被稱為“阿西洛馬人工智慧二十三條原則”。它是著名的阿西莫夫機器人三大法則的擴充套件版本,主要分為三大類:科研問題、倫理價值和長期問題。其中就談及了AI的法律責任以及可解釋性、可追溯性的要求,第十二、十三條談及了對人們隱私的保護,第十八條談及禁止軍備競賽和殺人武器的製造,這些都是我們剛才討論過的話題。

“忽如一夜春風來,千樹萬樹梨花開”,人工智慧日新月異的發展速度,將許多始料未及的倫理挑戰擺在人類的面前。我們沒有時間和理由去遲疑。應對這些倫理挑戰,不僅僅是少數立法者的職責,更是全體人工智慧從業者不可推卸的責任。

作為一名從業者,我意識到,從現在開始,我所寫的每一行程式碼、所設計的每一個演算法細節,都會讓人工智慧的未來更加美好。希望有一天,每個人的隱私資料都能得到充分的尊重和保護,並被合理地用來改善我們的生活;希望有一天,我們的醫生、律師和投資者,都能夠放心地去採納智慧助手提供的決策建議;希望有一天,人工智慧賦予機器人的強大力量將會被用於保護人類的和平,而非手足相殘。我因此而自豪。

謝謝大家。

相關文章