“圍剿”殺人機器人,周志華、Hinton等57位學界大牛出手了

AI科技大本營發表於2018-04-06

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1


作者 | 費棋

出品 | AI科技大本營


一群類似殺人蜂的小型無人機衝入課堂,以人臉識別技術瞬間定位所有學生,將他們全部殺死。


這是去年 11 月伯克利大學教授 Stuart Russell 在聯合國特定常規武器公約會議上放出的一段虛擬視訊。儘管這段視訊和其中的殺人機器人並不真實,但其中的科技目前已經存在。試想如果這種技術落入到恐怖分子手裡,後果將難以設想。




機器人的發展如果趨向惡的一面,那就像是潘多拉魔盒,異常凶險。


近日,超過 50 位人工智慧領域的專家聯名抵制韓國科學技術高階研究院 KAIST 開發“殺人機器人”。這是繼去年 8 月,業界的 116 位機器人和 AI 公司創始人和執行長們公開敦促聯合國採取行動,阻止“機器人殺手”出現的後繼浪潮。


他們的訴求一致,就是為了防止 AI 可能引發槍彈和核武器發明之後在戰爭領域的第三次革命,以及避免各國加速開發自動化武器進行軍備競賽。可以說,這是學界和業界對殺人機器人的聯合“圍剿”。


殺人機器人專案


很多與政府國防相關的 AI 技術應用,都會觸動業內從業者敏感的神經。


3 月,Google 利用 AI 技術幫助美國國防部分析其無人機拍攝的視訊片段,就遭到了近期 3000名員工聯名反對,這些人認為 AI 技術已經被用成了不正當殺人利器。


640?wx_fmt=jpeg


人工智慧在世界各地的軍隊中的使用引發了人們的擔憂,並對這種武器的準確性以及區分朋友和敵人的能力提出了質疑。


KAIST 與國防公司韓華系統(Hanwha Systems)在自主武器上的合作也是如此,雖然目前的訊息還未得知它們具體的一些專案細則,但如果你瞭解韓華系統的一些基本情況,也就會明白這次合作的箇中利害。


作為韓國最大的武器製造商之一,韓華系統製造的集束彈藥(cluster munitions)在國際條約下已被禁止在 120 個國家使用;而且韓國與美國、俄羅斯和中國一樣,都不是該公約的簽署國。十年前,挪威的未來基金將韓華列入了道德黑名單中。


其次,韓國科學技術院相當於韓國的麻省理工學院,綜合它們在各自領域強大的影響力和技術實力,兩者結合很難不引起人們的警惕。


2 月 20 日,KAIST 開放了國防和人工智慧聯合研究中心,校長 Sung-Chul Shin 當時表示“將為發展國防技術奠定堅實的基礎”。


根據該中心此前釋出在學校網站上的公告,他們將專注於研究“基於 AI 的指揮決策系統,基於 AI 的智慧飛機訓練系統,基於 AI 智慧目標跟蹤和識別技術,以及為大規模水下無人交通工具結合導航演算法”。根據這些內容,足以判斷出這些專案與國防結合的野心。不過,可能是因為遭受了近期的輿論風波,相關公告已從學校網站撤下。


聽到抵制的訊息後,Sung-Chul Shin 發表宣告稱,他感到很難過,認為 KAIST 重視人權和道德標準,沒有任何意願參與開發致命的自主武器系統和殺人機器人。“我再次重申,KAIST 不會進行任何與人類發展相左的研究活動,包括無意義的由人類控制的自動化武器。”


即便如此,製造類似的軍用的“戰鬥機器人”在韓國已不是首次了。一家名為 Dodaam Systems 的公司就生產了一種完全自主靜止炮塔,能夠探測 3 公里外的目標。客戶包括阿拉伯聯合大公國和卡達,並且已經在朝鮮高度軍事化的邊界上進行了測試。


其公司高管在 2015 年告訴 BBC ,他們擁有“自我強制限制”能力,機器是需要人類傳達攻擊指令。另外,英國 BAE 系統公司製造的塔拉尼斯軍用無人機也可以在技術上完全自主執行。


“發展自動化武器會使朝鮮半島的安全域性勢惡化,而不是更好。”新南威爾士大學的教授 Toby Walsh 表示, “無論武器是在什麼地方製造,他們最終肯定會在朝鮮出現,並會用它來對付韓國。”


“愚蠢的 AI”


Toby Walsh 正是此次呼籲抵制韓國殺人機器人的組織者。


在《衛報》發出報導一天之後,今天他就署名發表了一篇名為《現在從殺人機器人手中拯救世界還不算太晚》的文章。


他稱自己所說的殺人機器人不是電影《終結者2:審判日》中的 T101 型機器人。“與之相比,我最擔心的是愚蠢的 AI。”


他認為不受人類控制,自動化武器將成為大規模殺傷性武器。但我們現在還來得及阻止戰爭領域的第三次革命發生。“如何做到這一點並不涉及時間旅行,或者任何火箭科學。我要說的是,用人類發明的機器去決定人類的生死這在道德上是不可接受的。”


現在,我們在阿富汗或伊拉克的天空之上看到的無人機,還只是半自動化武器,但從技術上來說,用計算機取代操作的士兵現在可以輕而易舉做到。到那時,當有人遭受自動化武器的攻擊時,我們甚至很難找出幕後真凶,這會讓作惡者更加猖狂。


完全自動化無人機技術幾乎與自動駕駛汽車使用的是相同技術。比如識別、追蹤和避開行人的演算法可以很容易地變為識別、跟蹤和定位戰鬥人員的演算法。


那麼如何防止這個世界在未來充滿殺人機器人?


Walsh 認為,與核武器不同,自動化武器將變得廉價並且是一種非常有效的武器,這聽起來似乎將難以禁止。但有一個很好的歷史先例表明禁止是可行的。


他以化學武器為例,雖然它也像自動化武器一樣便宜,背後使用的技術廣泛存在,不可能完全禁止。但現在我們也並沒有禁止化學,而禁止的是化學武器,因為使用這些武器的人在道德上會被人類所唾棄,而這也是我們能夠防止未來會充滿殺人機器人的原因。


抵制聲潮


抵制殺人機器人的聲潮在擴大。


目前,已經有 20 多個國家開始要求全面禁止製造殺人機器人。而那些參與抵制的 50 多位頂尖 AI 學者也表示,他們不會參與此類專案的研究,不會與來自 KAIST 的訪問者進行合作。


KAIST 校長的迅速回應也表明這些學者的抵制是有效的,人類對自動化武器也是可控的。Walsh 覺得這些小的行動最終可能會實現徹底禁止製造自動化武器。


值得一提的是,參與抵制的除了有 Yoshua Bengio、Geoffrey Hinton 這些 AI 領域的知名學者之外,南京大學人工智慧學院院長周志華教授也位列其中。


640?wx_fmt=png

(參與抵制的部分學者名單)


儘管周志華教授此前並未發表與此相關的看法,但他曾在一篇《關於強人工智慧》的文章中指出,現在絕大多數 AI 研究者都認為強人工智慧不能做、不該做,即便強人工智慧是可能的,也不應該去研究它。這在一定程度上也能說明他對這種殺人機器人的態度。


人們對人工智慧的這種警惕感並不是近期才出現的,早在 2015 年 1 月,Stuart Russell 教授就發出了一封警告 AI 研究的公開信,響應者上千人,其中包括哲學家,來自 Google、Facebook 和微軟的 AI 研究者,特斯拉 CEO 馬斯克,以及已然逝去的物理學家霍金。


此次抵制事件,也像是在下週即將在日內瓦召開的聯合國會議上對“殺手機器人”議題討論的一次鋪墊。這或許標誌著,科學界將對 AI 武器進行更強有力的控制。


自動化殺人武器的潘多拉魔盒一旦開啟,很難關閉。人類需要儘快行動。


參考連結:

https://www.theguardian.com/technology/2018/apr/05/killer-robots-south-korea-university-boycott-artifical-intelligence-hanwha


https://www.theguardian.com/commentisfree/2018/apr/06/its-not-too-late-to-save-the-world-from-killer-robots

招聘

AI科技大本營現招聘AI記者和資深編譯,有意者請將簡歷投至:gulei@csdn.net,期待你的加入!


如果你暫時不能加入營長的隊伍,也歡迎與營長分享你的精彩文章,投稿郵箱:suiling@csdn.net


AI科技大本營讀者群(計算機視覺、機器學習、深度學習、NLP、Python、AI硬體、AI+金融、AI+PM方向)正在招募中,關注AI科技大本營微信公眾號,後臺回覆:讀者群,聯絡營長,新增營長請備註姓名,研究方向。

640?wx_fmt=gif

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

☟☟☟點選 | 閱讀原文 | 檢視更多精彩內容

相關文章