AI 殺人武器來臨,谷歌技術幫助美軍無人機識別更精準

AI科技大本營發表於2018-03-07

640?wx_fmt=png&wxfrom=5&wx_lazy=1

本文來自 CSDN 資訊

作者 | 言則

不知大家是否還記得去年 CSDN 報導的聯合國曝光 AI 殺手機器人事件,在日內瓦舉辦的聯合國特定常規武器公約(CCW)會議上播放的一段視訊顯示,一群神似《黑鏡 III》中機器殺人蜂的小型機器人,通過人臉定位瞬間殺死了正在上課的一眾學生,場面血腥。

640?wx_fmt=gif&wxfrom=5&wx_lazy=1

想象一下,類似上述的 AI 殺手機器人等致命武器一旦落入恐怖分子之手,會造成怎樣嚴重的後果。

而現在,據外媒 Gizmodo 報導,Google 正與美國國防部合作開發無人機軟體,該專案將應用谷歌的機器學習技術,幫助美軍方無人機識別效果更加精準。同時,谷歌的這一專案也引發了部分員工關於隱私資訊和道德層面的考慮。

谷歌機器學習專案 Maven 使識別效果更精準

這個被稱為 “Maven” 的專案始於去年 4 月份,以“加速融入國防部人工智慧及機器學習等技術”為主要任務。此外,專案還有個別稱是“演算法戰跨職能小組(AWCFT)”。

美國國防部發布的報導表示,該專案旨在幫助處理軍隊收集的“數百萬個小時的無人機拍攝視訊”。五角大樓的無人機鏡頭增速比以往人類分析師的速度更快,所以他們迫切希望藉助機器學習來完成一些繁重的工作。作為 YouTube 的擁有者,Google 無疑是世界上視訊素材最多的專家。

報導稱,Maven 專案最初主要是用於伊斯蘭國的戰鬥中,現在的話,則為軍方提供了一種“精準識別個人的能力”。

Maven 引發員工不滿,認為侵犯隱私以及涉及道德問題

但根據 Gizmodo 的報告,谷歌的這一舉措也引發了部分員工的不滿。

有些員工認為公司為軍方提供的無人機監控操作會嚴重侵犯隱私安全,另外有些員工則認為它引發了有關機器學習發展和使用的重要道德標準問題。

Google 的一位發言人對報告作出了回應,他說:“我們長期與政府機構合作,為他們提供技術解決方案。這次的專案是國防部的試點專案,提供開源的 TensorFlow API,可以幫助識別未分類資料上的物件。”

該發言人補充說:“該技術所標識的影像僅供人類審查,不會存在侵犯隱私性的冒犯性使用。事實上,機器學習的軍事使用已經引起了有關部門的關注,我們也有在內部和其他人積極討論這個重要議題。我們將繼續圍繞開發和使用機器學習技術制定有效的政策和保護措施。”

精彩推薦

2018年3月30-31日,第二屆中國區塊鏈技術暨應用大會將於北京喜來登長城飯店盛大開場,50+區塊鏈技術領導人物,100+區塊鏈投資商業大咖,100+技術&財經媒體,1000+區塊鏈技術愛好者,強強聯合,共同探討最in區塊鏈技術,豪華乾貨禮包享不停。八折門票火熱搶購中!2018,未來已來,帶你玩轉區塊鏈。


640?wx_fmt=jpeg


AI科技大本營使用者群(計算機視覺、機器學習、深度學習、NLP、Python、AI硬體、AI+金融方向)正在招募中,後臺回覆:讀者群,聯絡營長,新增營長請備註姓名,研究方向。

☟☟☟點選 | 閱讀原文 | 檢視大會詳情

相關文章