全球 14 家機構專家發百頁報告:警惕人工智慧

CCkicker發表於2018-02-24

據The Verge北京時間2月23日報導,當談論人工智慧帶來的危險時,我們通常強調的是意料之外的副作用。我們擔心的是,我們可能會意外地開發出具有超級智慧的人工智慧系統,而忘記賦予它道德;或者我們在部署刑事判決演算法時,這些演算法吸收了用來訓練它的資料存在的種族偏見意識。


但這還不是人工智慧可能帶來的全部風險。


人們會主動將人工智慧用於不道德、犯罪或惡意目的嗎?這會帶來更大問題嗎?來自包括牛津大學、劍橋大學、人類的未來研究所(Future of Humanity Institute)、埃隆·馬斯克(Elon Musk)投資的非營利性組織OpenAI在內的機構的二十多位專家稱,這兩個問題的答案是肯定的。


在這份題為《人工智慧的惡意用途:預測、預防和緩解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation)的報告中,專家列出了未來5年人工智慧可能給人類帶來問題的一些途徑,以及人類的應對之道。報告聯合作者邁爾斯·布倫戴奇(Miles Brundage)向The Verge表示,雖然人工智慧可以被用來發動惡意攻擊,但我們沒有必要談人工智慧色變,或者絕望。


布倫戴奇表示,“我喜歡積極的態度,也就是說我們還大有可為。報告的本意不是描述悲觀的未來——人類可以採取諸多預防措施,我們還有許多東西需要學習。我並不認為我們已經陷入絕境,但我把這份報告看作是行動的倡議書。”

全球 14 家機構專家發百頁報告:警惕人工智慧

報告的內容很廣泛,但重點介紹了人工智慧加劇實體和數字安全系統面臨威脅和製造全新威脅的幾種主要方式。它還提出了應對這些問題的5點建議,其中包括使人工智慧工程師提前告知他們的研究被用於惡意目的;啟動政界和學術界之間對話,避免政府和立法機關對此一無所知。


人工智慧最大的威脅之一是,通過使原本要求人工完成的任務實現自動化,人工智慧可以大幅度降低某些攻擊的成本。


報告提出的第二個要點是,人工智慧可以為現有威脅增加新維度。例如,在釣魚攻擊中,人工智慧不僅能用來生成常見的電子郵件和訊息,還能生成虛假音訊和視訊內容。


當然,人工智慧還能對一些惡意行為起到“助紂為虐”的作用。例如,在政治和社會生活中左右輿論。


報告還闡述了人工智慧帶來的全新威脅,其中包括恐怖分子在保潔機器人中隱藏炸彈,把它送到特定場所,目標靠近後由人工智慧技術自動引爆炸彈。


為了預防、減輕人工智慧可能帶來的危害,報告給出了5點建議:

研究人員應當告知他們的研究可能的惡意使用方式。

政策制定者需要向技術專家瞭解這些威脅。

人工智慧行業需要向網路安全專家學習如何更好地保護其系統。

需要制定人工智慧道德框架,並嚴格遵守。

需要有更多人蔘與對這一問題的討論,其中不應該僅僅侷限於人工智慧科學家和政策制定者,還應該包括倫理學家、企業和普通大眾。

換句話說:就是更多的對話和更多的行動。


來源:鳳凰網科技

相關文章