美國五角大樓20億美元人工智慧計劃:一個被頻頻叫囂的軍事賭注!

人工智慧頻道發表於2018-10-16

每一部關於未來機器人的科幻影片都闡發了一個令人心寒的理念:機器人一旦學會為自己思考,人類就註定要滅亡。

例如《2001太空漫遊》裡的HAL9000,《銀翼殺手》裡的複製人,《西部世界》裡的Hosts。

如今,美國的五角大樓也正熱火朝天的研發新興的人工智慧科學,預開發計算機演算法,實現無人駕駛汽車、智慧醫療,以及智慧軍事武器。

人工智慧的競賽成為國防高階研究計劃局的首要任務,該機構只有200多名工作人員,在開發隱形技術、高精度武器和網際網路等方面發揮了重要作用。

美國國防部高階研究計劃局(DARPA)局長Steven Walker在該機構成立60週年研討會上表示:“實際上,在過去的50年裡,DARPA及其合作伙伴已經引領了人工智慧的研發道路。因此,在這場遊戲中,我們並不是新手。”

早期的人工智慧就已經完善好了系統技術和統計學習的能力,AI的下一輪飛躍就是研發領域所謂的“第三波”技術,它專注於“語境推理”,也就是我們所謂的“思考”。

近日,在美國華盛頓特區的一次研討會上,美國國防部高階研究計劃局宣佈,計劃在未來五年內,投資20億美元用於人工智慧的研究,探索“怎樣賦予機器類似人類的溝通和推理的能力”。

美國空軍參謀長聯席會議副主席Paul Selva將軍是人工智慧領域著名的思想家之一,他認為,計算機輔助思維有望使美國未來的軍隊成為超越人類的機器人戰士,幫助作戰人員瞭解戰場上的“大資料”。

Selva在今年的圓桌會議上向國防記者表示,人工智慧能夠讓我們看的更快、決策更快、行動更快。如果你沒有實現這些能力,就說明你並沒有利用好這項技術,你只是在欣賞它。

人工智慧可以做一些基礎性的工作,例如平凡的、重複性高的任務,檢視背景記錄或分析無人機鏡頭的時間等。

但包括谷歌在內的很多科技公司反對他們的這項人工智慧助力戰爭的計劃。上週,谷歌決定不再競爭價值高達100億美元的五角大樓雲端計算合同,稱該專案可能與其企業價值發生衝突。其中包含谷歌的一項宣告:確保不製造任何有意造成傷害的武器或系統。

隨著武器越來越智慧,道德問題越來越棘手。

倫理學家擔心的是LAWS的興起,即致命自主武器系統的縮寫,例如《終結者》電影中的“天網”。一個現實的例子是“自主飛機”,就如同今天的無人機一樣,飛機駕駛室裡沒有人類飛行員。

日內瓦的和平基金會科學顧問Regina Surber寫到:“一般的想法是,機器一旦被啟用,法律將藉助於感測器和計算密集型演算法,識別、搜尋、選擇和攻擊目標而不需要人為干預。”

Surber在今年發表的一項論文中,提出了贊成和反對的論據,

Surber指出,一方面,自主“思考”系統不依賴於通訊鏈路,可以在更長的時間內增加射程,減少軍事行動所需的人數,甚至可以挽救雙方的生命。

它們更高的處理速度將適應日益加快的戰鬥速度,用機器替換人類,可以減少傷亡。並且因為機器沒有自身利益、恐懼、復仇等之類的情緒特徵,它們的“客觀”決策可以降低整體結果的危害性。

另一方面,人工智慧代替人類判斷越多,戰士對人類生命的價值失去敏感性風險的可能性就越大。

此外,人類可能無法再預測攻擊目標是誰或是什麼,甚至無法解釋選擇特定目標的原因。Surber爭辯道:“作為一個機器,而不是人類“決定”殺人。程式設計師或工程師與目標人物之間的情感會變得冷漠,甚至變成一種“遊戲”心態。”

五角大樓參與機器學習系統競爭時,國防部長Jim Mattis也考慮到了這一點。

Mattis向記者表示,將人類從顧有的圈子裡拉出來,可能會改變他們認為的不可變的戰爭原則,但即便技術發生了變化,其基本性質是沒有改變的。

Mattis表示,今天大家稱作“無人駕駛飛機”,而不稱為“遙控飛機”,實際上誤解了這一名字。駕駛室裡沒有人,但不代表沒有人操控它,其實後臺是有人為操控的。現實是,駕駛它的人比飛機真實承載的人還要多,“無人”這一說法是不存在的。

“但如果人類被有感知的機器人取代,它也許會改變一切。我也肯定會質疑我最初的假設,即戰爭的根本性質不會改變,但你們現在必須對此提出質疑。”

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31545819/viewspace-2216616/,如需轉載,請註明出處,否則將追究法律責任。

相關文章