新冠病毒能影響AI?人工智慧的正常離不開人類介入

AIBigbull2050發表於2020-07-10

本文轉載自公眾號“讀芯術”(ID:AI_Discovery)

新冠期間,以人工智慧為技術基礎的系統表現出了點兒問題。病毒都能感染人工智慧了嘛?當然不是,被影響到的是人類。沒有了人工介入,人工智慧和機器學習系統都不能良好運轉了。

人工智慧聽起來似乎離我們很遠,但其實每個人生活中都體驗過它。從Netflix的定製化推薦到Spotify的個性化播放歌單,再到像Alexa一樣可以管理購物清單和應用的語音助手。這些例子都能說明整合人工智慧系統是如何進入人類生活的。

從商業的角度看,很多公司都會在人工智慧和機器學習方面大量投資。不管是重要商業過程的自動化,建立多渠道的供應鏈;還是將聊天機器人授權給顧客聯絡團隊,以人工智慧為基礎的系統都能大大降低了人工勞動以及企業成本,以獲得更高收益率。

看似百毒不侵的AI,卻被發現了也有弱點?來自麻省理工學院的作者威爾·道格拉斯近期在文章中提出:在新冠病毒疫情期間,以人工智慧為技術基礎的系統表現欠佳。病毒不是直接影響人工智慧,而是影響了人類。

新冠病毒能影響AI?人工智慧的正常離不開人類介入

如果經常用機器學習演算法來管理存貨、客戶支援及其他功能,系統可能會被訓練得很好,在無人介入的情況下也能高效運轉。但這種說法只能說是部分正確,因為人們並未根據疫情出現的“新常態”來訓練機器學習演算法。

疫情已經徹底改變了世界,包括供給和需求的模式和一般買方行為。在幾天時間內,廁紙、口罩、手部消毒液成了亞馬遜上全球搜尋頻率最高的產品,而手機充電器和樂高這些長久以來爆紅產品的人氣卻大大降低了。

這些驚人的變化都影響了人工智慧,很多基於常規行為訓練出的機器學習模型突然面臨大量的偏差,就無法正常工作了。

疫情前值得關注的人工智慧失敗案例

人工智慧應用在過去的幾年內的最佳化十分顯著。然而,當機器因為一個或某些原因無法正常工作時就會出現問題。比如,本應治癒癌症的IBM“沃森腫瘤學”卻成了荒謬的產品。

有人發現這個產品給出錯誤的診療建議,這有可能會惡化病人的病情,接著它就被停止使用了。人們這才發現,沃森是基於少數“人造癌症病例”被訓練出來的,而不是基於真實的病人資料。即使是建議,也應該基於一些癌症專家的專業知識,而不是任何書面指南和證據。

另一個案例是亞馬遜的招聘引擎偏向白人男性。這個模型是基於十年間投遞到亞馬遜的簡歷訓練出來的,並且以現在的工程師為基準。根本上來說,這個訓練後的模型在招聘中偏向男性。據熟悉此問題的人報導,系統會不公平地對待含“女性的”這個詞的簡歷,並且還會給來自兩所女子大學的簡歷降分。

回到當前疫情,以賣消毒劑的公司為例,零售商依靠自動存貨管理系統預測出的合作公司(預測演算法根據使用者行為生成)不再與疫情期間的實際需求相匹配,這會導致嚴重的供需不平問題。

實際上,當全世界的供應鏈受到影響,各家公司面對新的需求情況時,人們應該重新考慮運用在銷售和開支預算中的人工智慧模型了。由於當前的經濟和社會情況催生了“新常態”,曾經匯入到機器學習模型的資料和假設不僅不再適用,而且還可能導致嚴重的錯誤。

人工介入對人工智慧的成功至關重要

機器學習系統的質量僅取決於用於訓練它的資料的質量,這意味著當今的黑天鵝事件引發了人們去重新想象匯入到人工智慧——機器學習系統裡的訓練集合。很多專家認為,訓練人工智慧不能僅基於單一的最壞情況能,還應基於人類歷史上的轉折性事件,比如上世紀30年代的大蕭條、2007-2008年的金融危機,還有當前的疫情。

人類的監管可以很大程度上攻克人工智慧的短板。這幾個月來,人們對健康的關注變得更多了,再加上社交媒體上關於疫情不斷的真假傳聞。很多人不能辨別新聞的真假,這會在現實世界裡造成嚴重的後果。

所有人只知道控訴臉書的演算法推送假新聞來影響美國大選,事實上,人類的監管可以制止假新聞的傳播,可以透過讀者點選新聞來源,辨別故事真假,曝光假新聞,從而阻止其傳播。

今天,人類儘管試圖讓人工智慧模仿人類,但還是無法讓人工智慧在無人監測的情下獨自執行。機器終究只是機器,它們並不受道德和社會標準的約束。

好的情況下,人工智慧基於訓練它的良好資料而表現良好;反之,人工智慧也能反映偏見、思考過程、或創造者的道德標準。為了克服這些問題,用不同的資料集合訓練人工智慧,並且加入人工檢測,是很有必要的。未來之路還有很久很長。






來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2702508/,如需轉載,請註明出處,否則將追究法律責任。

相關文章