人工智慧的惡意使用:預測、預防和緩解

人工智慧快報發表於2018-04-04

外媒DefenseOne網站報導稱,來自14家業界、學術界機構的26名人工智慧專家撰寫了《人工智慧的惡意使用:預測、預防和緩解》報告。這份長達100頁的報告指出AI技術是一把“雙刃劍”,具有“雙重用途”屬性,即該技術能夠每秒做出成千上萬個複雜的決策,這種能力既可用於造福人類,也可用於擾亂秩序,完全取決於設計該系統的人。報告中,專家們探討了現存的或可能在未來五年內出現的人工智慧的惡意用例,及其所帶來的潛在安全威脅,並將其分成數字威脅、物理威脅和政治威脅三組進行了研究,最後提出了更好地預測、預防和減輕這些威脅的方法。

640?wx_fmt=png&wxfrom=5&wx_lazy=11. AI技術的潛在安全威脅

1)數字威脅:①通過自動釣魚或建立虛假電子郵件、網站、連結等手段竊取資訊;②通過自動發現軟體漏洞進行更快速的黑客攻擊;③利用人工智慧對於外界的理解缺陷,欺騙人工智慧系統。

2)物理威脅:①利用商用無人機或無人駕駛車輛作為武器,實現恐怖主義的自動化;②機器人叢集,即由許多自主機器人圍繞共同目標開展行動;③遠端攻擊,由於自動機器人無需在任何設定距離內進行控制,因此得以實施遠端攻擊。

3)政治威脅:①通過易於生成的假影像和視訊進行宣傳;②通過自動查詢、刪除文字或影像等技術自動清除異議;③個人觀點說服,利用公開的資訊針對個人觀點進行說服。

640?wx_fmt=png&wxfrom=5&wx_lazy=12.相關建議

隨著人工智慧技術的日益強大和普及,報告預測,人工智慧系統帶來的威脅將不斷變化,如現有威脅的擴大、新威脅的產生、典型威脅的特徵發生變化等。為了應對不斷變化的威脅環境,報告提出了四項高階建議:

1)決策者應與技術研究人員緊密合作,調查、預防和減輕人工智慧的潛在惡意使用;

2)人工智慧的研究人員和工程師應認真看待其工作的“雙刃劍”性質,考慮誤用等因素的影響,調整相應研究重點和規範,並在可預見有害應用程式時主動聯絡相關組織;

3)對於能夠成熟妥當地解決“雙刃劍”問題的研究領域,如電腦保安等,應識別最佳實踐案例,並將其引入人工智慧領域加以應用;

4)擴大利益相關方與領域專家的範圍,積極探討相關挑戰。

此外,報告還建議在四個優先研究領域內探討開放性問題和潛在的干預措施:向網路安全社群學習;探索不同的開放模式;營造負責的文化氛圍;制定技術和政策解決方案。

報告指出,對AI雙重用途的干預行動不僅需要人工智慧研究人員和企業的關注和行動,還需要立法者、公務人員、監管機構、安全研究人員和教育工作者的關注和行動。

640?wx_fmt=jpeg

640?wx_fmt=jpeg


相關文章