AI走向“戰爭技術”,是減少損傷還是推向災難

人工智慧觀察發表於2018-07-03
640?wx_fmt=gif

智造觀點

最近幾周,發生的諸多事件都表明了大家對人工智慧日益增長使用的擔憂。比如近期在日內瓦舉行的#AI4Good峰會上,與會者共同討論了AI在醫學、教育、經濟以及執法應用方面可以幫助人類的許多方式。

 

然而,與此同時,不管是谷歌退出五角大樓Project Maven,還是員工站出來反對亞馬遜將其人臉識別技術賣給政府,亦或是微軟Azure與政府的合作造成孩子與父母分開引發眾怒,這些都是人們對AI技術使用的擔憂。不可避免的,“戰爭技術”成為了其中最受關注的焦點。在谷歌Project Maven一案中,谷歌員工還曾引用“不作惡”的口號,進行上書。

 

那麼,是否存在一種可能,即使人工智慧部署到戰場上,可以依然遵循“不作惡”的標準呢?換句話說,當人工智慧用於戰爭,是將更智慧地控制戰爭,還是會“養虎為患”,將人類推向更恐怖的戰爭深淵呢?


文/灰灰

來源/人工智慧觀察(ID:Aiobservation)


我們不能否認,谷歌員工提出的問題是值得思考的:那些正在努力開發用於戰爭的AI技術研究員應該以道德和負責任的方式來完成這項任務。戰爭與技術,除了我們習以為常的殘酷,其實還有另外一面——雖然我們印象中的戰爭史,充滿了殘忍與殺戮,但是技術也可以用於減少戰爭的悲慘代價。

 

舉個例子,精確制導和小型彈藥可以限制所謂的附帶損害,即對平民和其他非戰鬥人員的殺戮和致殘,同時,減少對家庭和關鍵基礎設施的破壞也將成為可能。只不過,一直沒有相關的公開討論來研究如何將人工智慧應用於戰爭,幫助緩解悲劇的發生。在小智君(ID:Aiobservation)看來,人工智慧除了會帶來傷害,或許我們還可以讓她來減少戰爭災難的發生。


人工智慧的軍事潛力,不只是技術


眾所周知,技術是軍事組織成功開展行動的決定因素之一。同時,在使用這個時代下,他們還需要最大限度地發揮技術潛力,特別是獲得各個國家青睞的人工智慧。但這並不是最主要的,重要的是,AI也將是改變軍事教育的方式之一

640?wx_fmt=jpeg

正如最近的一份報告所指出的那樣:AI驅動的智慧輔導系統可以提供模擬人類的一對一輔導,學生們也可以從這位“終身學習夥伴”中受益,即根據學生的個人資料,進行有針對的教學。此外,人工智慧還可以用於協助學習。

 

軍事組織一直致力於分享歷史課程,並建立有效的以及有凝聚力的戰鬥團隊。人工智慧在幫助培養專業技能的同時,還可以支援團隊中更高水平的運營和戰略規劃。


在以往的戰爭中,指揮員的決策,一方面來源於情報、偵察、監視等手段,另一方面受指揮員自身的經驗、靈感、聯想等主觀因素影響在AI的輔助下,該技術便可以為指揮員的決策提供新的參照,彌補軍事資訊系統的不足,從而構建起功能強大的網路資訊體系,提高軍隊的智慧化評估和輔助決策能力。


用AI減少戰爭造成的人道主義損傷


隨著今天人工智慧的快速發展,如何利用這一技術減少戰爭帶來的人道主義損失,成為了一個值得深入思考的問題。“General AI”——一個能夠像人類一樣做出廣泛決策的人工智慧,就如電影《2001:太空漫遊》的情景一樣——可能需要幾十年甚至更長時間才能實現。

 

所以,就目前的情況而言,可用的更有針對性的AI型別會變得非常有用,因為它們能夠處理大型資料集並快速整合來自不同來源的資料。如果可以進行創造性的思考,那人工智慧就有可能可以通過多種方式來改善決策,達到更好地保護武裝衝突中的平民的效果。

640?wx_fmt=jpeg

CNA(華人新聞通訊社)曾對戰爭中民眾的傷亡情況以及其發生的原因進行過研究。考慮到現代軍隊目前擁有的能力和使用的技術程式,以及人為判斷失誤和程式問題導致的失誤型別,人工智慧極有可能可以減少戰爭中的民眾的傷亡

 

比如,AI技術可以根據情報以及影象審查情報,減少被誤認為是戰鬥人員的平民數量。它們還可以監控戰場,並對現有的附帶損害估測進行雙重檢查,特別是隨著時間的推移,情況會發生變化。


AI驅動的無人系統將讓這些系統承擔風險並有耐心去等待最佳“戰鬥”時機,從一定程度上,這可以降低平民的風險。同時,在探測到戰場上民用基礎設施後,AI還可以進行提醒,並提出建議來採取措施降低破壞風險的存在,就如電力和水利設施,如果不被破壞,將很有助於未來城市的恢復。


人工智慧,積極影響下的潛在風險


將人工智慧應用於戰爭中的積極成果,並不意味著我們要對其潛在的風險視而不見。技術的有效和安全使用是複雜的,需要全面解決,而不是僅僅通過部署一個新的,更先進的系統就能實現的。反,有一些具體方法可以提高軍事系統中人工智慧的安全性,比如通過人機組合來充分利用人和機器的優勢。這種組合通常產生比單獨操作更好的結果。

 

那如何實現在戰爭中用人工智慧拯救生命呢?如果政府選擇讓自己的軍隊審慎使用人工智慧,並從中獲取人道主義收益;如果國際論壇倡議將這種積極成果作為集體目標,那麼這一救國就有很大可能會實現。

 

像谷歌這樣的公司也可以在“不作惡”的承諾上,研究如何將自己的專業知識貢獻給戰爭中的人道主義,其他人,其他企業,其他組織必然也可以尋求使用人工智慧來造福世界,保護戰場上的民眾。

 

如今,人工智慧的軍事應用浪潮已不可避免,因此無論是應對技術還是倫理的挑戰,都應堅持探索與發展人工智慧技術,加強人工智慧的技術預測與評估,在充分試驗與分析的基礎上逐步推進人工智慧技術的軍事應用。

(文中圖片來自網路)

640?wx_fmt=png

投稿、約訪、合作,聯絡郵箱aiobservation@qq.com

新增微信aixiaozhijun,更多交流或進AI觀察團

640?wx_fmt=gif

相關文章