我們應該如何理解李飛飛價值十億美金的“人文AI”計劃?
AI自從以應用角度走進大眾視野,就一直逃不出“人文主義”的苛責。作為一種依靠於海量資料運轉的技術,AI之所以能夠作為提升效率的工具,主要還是因為對人類經驗的高度集中。
而“人類經驗”這件事,本身就是不夠完美的。普遍能夠累積成海量資料的經驗,有時反而更加充滿偏見。就像如果把AI帶入哥倫布時代,AI也會成為一位堅定的地心論支持者。
而李飛飛離開谷歌迴歸史丹佛後,主導的第一個專案HAI——以人為本人AI研究院(Stanford Human-Centered AI Institute),就在著重解決AI與人文主義之間的溝壑。
AI擬人化,竟是一位“富裕的白人男性”?
首先要知道的,究竟是什麼讓AI無法“以人為本”?
目前從人文、從公平的角度來看,AI公認的兩個問題是“白人至上(White Guy Problem)”和“男性之海(Sea of Dudes)”。
所謂白人至上,是指在演算法驅動下AI所做出的一些種族歧視行為。例如谷歌的圖片自動分類曾經將黑人照片分類成大猩猩,以及惠普的攝像頭演算法無法識別深膚色的人。在犯罪預測軟體中,甚至會將黑人的犯罪率識別成普通白人的兩倍以上。
而男性之海,則指的是AI從業者中有極大的性別傾斜,在2015年的NIPS上,女性與會者的人數竟然只佔到了13.7%,李飛飛提到,在論文引用量,男性作者的被引用次數要比女性作者高100倍。
用《紐約時報》的話講,兩者結合,讓AI被塑造出了一個“富裕白人男性”的價值觀——剛好和那些掌握著科技霸權的企業主們一模一樣。
如此以來,對於AI的應用很可能反而會讓人們一直以來對於推動種族、性別間平等所做的努力白費。
就像平權主義者一直在推動男女收入平等,而去年卡內基梅隆大學的電腦科學家卻發現,在谷歌的廣告推送機制中,更傾向於將高收入工作的招聘廣告推送給男性使用者。
而當美國各地警察部門在執行預測性警務工作時,資料驅動的風險評估工具會讓他們更多的前往有色人種聚集區,無形中加重了對某一人群的偏見和標籤化。
可怕的是,當女性在職場上遇到歧視時,她還可以對自己情況進行發聲。而當AI驅動一切在無聲中進行時,女性甚至不知道自己正在處在歧視鏈之中——如果從沒見過這項招聘啟事,女性自然不知道高收入工作更傾向於招聘男性。
而當AI行業中充斥著“富裕的白人男性”時,他們自然也很難注意到演算法黑箱中產生了這樣的問題。最終萬事萬物都在人類歧視造就的規則下執行,被驅動的每一個群體卻又看不清規則的真正面目。
十億美金的遠大目標
李飛飛在史丹佛主導的HAI專案,大概有著以下三個目標:第一是推進和發展下一代AI科學(重點在於腦科學和認知科學),第二是研究和預測AI對人類社會和生活的影響,第三是設計和實踐以人為本的AI技術和應用。
這麼一看,所謂“以人為本”的說法其實挺虛的。但綜合史丹佛的一些公開資料,以及李飛飛的一些講話,我們可以大概總結出HAI究竟想做些什麼。
首先是在AI研究中引入更多樣化的視角和交叉思維。
最主要的,就是支援女性和有色人種進入AI研究。例如史丹佛所支援的“Black in AI”專案,就在號召有色人種關注目前的AI研究,關注AI無形中所帶來的歧視問題。
同時還有持續追蹤各個領域應用AI後所帶來的影響。
初次之外,HAI還邀請了社會各界人士共同參與,如教育、工業、藝術等等領域,試圖讓他們一起發表意見,尤其是對技術研發者給出反饋,告訴他們AI究竟對這一領域產生了哪些影響,以權衡技術的未來走向。
至於推動下一代AI科學就很好理解了,主要是幫助研究者圈定研究方向,推動AI的可解釋性等等,這裡就不再進行贅述。
但有趣的是,HAI作為一個非常政治正確並偉光正的專案,並沒有在輿論獲得一致性的支援。尤其有媒體指出,該機構有121位教職工,其中有100位以上都是白人,並只有30%的女性。
於是事情就變成了,HAI邀請了一群富裕的白人男性,試圖募集10億美金去從人文角度矯正人工智慧的“富裕白人男性”價值觀。
齒輪之下:如何看待商業效率以外的AI?
雖然HAI獲得的評價不一,但AI所帶來的公平性問題,確實已經開始影響人們的正常生活。
就像上文提到的演算法錯誤估計有色人種犯罪率將其提升了兩倍,同樣意味著演算法將白人的犯罪率錯誤的低估了兩倍。如果執法者依賴這種錯誤的演算法,則意味著不僅可能冤枉好人,也可能錯放壞人。
又比如前兩年亞馬遜曾經鬧出的醜聞,使用者發現演算法在分配貨物能否當日送達時,一旦輸入了黑人聚集區的郵政編碼,就無法使用當日送達服務。
(被評價為“高風險”的有色人種,和擁有數次犯罪記錄卻被評定為低風險的白人)
這種偏見現象正在越來越多地出現在種種服務中:貸款的AI風控、保險的AI稽核機制。最後就導致了越是弱勢群體,越容易被演算法邊緣化,進而難以獲得資源與幫助,最後進一步地向弱勢一方傾斜,甚至最終走向犯罪,加重了演算法歧視。
如此看來HAI的很多策略,是非常值得我們仔細思考的。
例如,當我們在關注產業AI的效率問題時,我們是否也應該考慮在效率之外,AI對於產業的更多影響?當AI對於擁有強大IT基礎的零售集團發揮作用,他們更加理解使用者心智時,那些小而美的微型零售店是否在風潮中被遺忘和擠壓,最終退出舞臺?
又比如除了那些研發技術和為技術買單的人之外,我們是否有責任去傾聽更多人的聲音?AI的研發者與技術採買者或許清晰地知道AI是如何推動我們生活運轉的,但那些同樣被卷在齒輪之下的人,是否也有權力瞭解到這些齒輪的運轉規則?
更重要的,我們是否應該盡力去推動AI黑箱的透明化,在發現問題時能夠從內部技術機制上解決?
以往我們總覺得,技術永遠只是研發者和應用之間的故事。如今看來,或許AI已經成為了一個世界命題。
世界命題,就應該廣泛參與。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31561483/viewspace-2639792/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- AI 女神李飛飛最新文章:發展人工智慧應該以人為本AI人工智慧
- 李飛飛最新訪談:我每天都在對AI的擔憂中醒來AI
- 李飛飛解讀創業方向「空間智慧」,讓AI真正理解世界創業AI
- 史丹佛大學李飛飛等人談AI醫療:病床邊的計算機視覺AI計算機視覺
- 史丹佛AI實驗室換帥!Christopher Manning接替李飛飛AI
- ai老師帶我飛AI
- 時到如今,我們應該如何評價《死亡擱淺》?
- AI量化策略,我該如何理解你?AI
- 李飛飛專訪:AI不屬於某些小眾群體,AI屬於每個人AI
- 福布斯評選 8 位 AI 風雲女性,李飛飛、Coursera 創始人在列AI
- 阿里巴巴副總裁李飛飛:如何看待資料庫的未來?阿里資料庫
- 自然資本核算:自然資源對我們的經濟價值該如何衡量?
- 化身“監工”的AI,我們該如何相處?AI
- 我們應該如何給需求排序?排序
- AI的新風口,能讓我們的遊戲行業起飛麼?AI遊戲行業
- 幸運飛艇計劃交流
- 李飛飛團隊最新論文:如何對影像中的實體精準“配對”?
- 李飛飛:World Labs這樣實現「空間智慧」
- 出神入化:特斯拉AI主管、李飛飛高徒Karpathy的33個神經網路「煉丹」技巧AI神經網路
- 美史丹佛大學成立以人為本AI研究院,李飛飛將領導AI
- 要強化AI技術?Twitter任命人工智慧專家李飛飛為獨立董事AI人工智慧
- 李飛飛團隊提出OpenTag模型:減少人工標註,自動提取產品屬性值模型
- 深度 | 阿里雲李飛飛:中國資料庫的時與勢阿里資料庫
- 我們的第一本書,記錄草長鶯飛的AI時代AI
- AI學會了視覺推理,“腦補”看不清的物體 | 李佳李飛飛等的CVPR論文AI視覺
- 這麼多人,AI怎麼知道你說的是哪個? | 李飛飛團隊CVPR論文+程式碼AI
- 李飛飛團隊最新研究成果:視覺AI讓醫院細菌無處可逃!視覺AI
- 李飛飛現身破離職傳聞,稱谷歌AI中國發展重質不在速谷歌AI
- 李飛飛反對,馬斯克、Hinton、Bengio支援,加州AI監管法案即將塵埃落定馬斯克AI
- 新火種AI|零到估值超十億,李開復如何8個月打造AI 2.0獨角獸?AI
- 我們們聊聊對賬系統該如何設計
- 幸運飛艇雪球計劃群 5886633
- “SOFA 星球”闖關計劃 ——Layotto 飛船
- Blazor一個簡單的示例讓我們來起飛Blazor
- 重磅!李飛飛入選美國國家醫學科學院,她用AI改變了醫療AI
- 睡神飛創始人:失敗50多次後,我們做出了“飛刀”和“大刀”
- 接入Tengine,讓你的AI應用飛起來AI
- 你的應用應該如何收費?它的價值是什麼?