機器人傷人事件:沒有意識的它只是人類操控下的傀儡

行者武松發表於2018-03-01

沒有自主意識,縱然傷人也只是人類操控失誤所致的結果,機器人不應該承擔所有的責任。



機器人傷人事件沒有意識的它只是人類操控下的傀儡


上週,2016年底十八屆深圳高交會(中國國際高新技術成果交易會)突發一起傷人事件,傷人者是一臺名叫“小胖”的機器人。一時間,“機器人三定律”又被拎了出來。


為了避免機器人傷害人類,1942年,美國著名科幻小說家阿西莫夫在作品《我,機器人》中提出了“機器人三定律”,被稱為“現代機器人學的基石”:


第一法則:機器人不得傷害人類,或坐視人類受到傷害;

第二法則:除非違背第一法則,機器人必須服從人類的命令;

第三法則:在不違背第一及第二法則下,機器人必須保護自己。


後來,阿西莫夫加入了一條新定律:


第零定律:機器人不得傷害人類整體,或因不作為使人類整體受到傷害。


對於提出的三定律,阿西莫夫本人曾經無不自豪的說過:“三定律是理性人類對待機器人(或者任何別的東西)的唯一方式。”不過,隨著時間的推移以及人工智慧的發展,“機器人三定律”的適用性逐漸發生了變化。


機器人傷人事件沒有意識的它只是人類操控下的傀儡


機器人三定律的幾點疑惑


首先,機器人如何分辨“人”和“機器人”?一般來講,機器人主要通過感測器和計算機視覺來感知人類,但是仿生機器人、人造皮膚等進一步將人類與機器人的區別模糊化。目前,人類通過肢體和語言來分辨機器人,但這兩者在未來肯定是會進行優化的,屆時,連人類都區分不了的情形下,又怎麼要求機器人能夠準確分辨?


其次,在機器人這裡,什麼才叫做“傷害”?通常來講,傷害分為生理傷害以及心理傷害。比如甲方對乙方惡言相向,這時候機器人該上前阻止嗎?或者說人類失戀酗酒,對於這種“自殘”行為,機器人是選擇“坐視人類受到傷害”還是上前奪下酒杯?所以,對於“傷害”一詞的模糊定義,也給機器人的命令執行造成了一定的阻礙。


另外,對於阿西莫夫所增加的“第零定律”中的“整體”一詞,這是指個人的整體還是人類種群的整體?若是個人,那是不是人類就不能截肢了?畢竟機器人要確保“整體”。若指的是群體,當自動駕駛汽車撞向行人之時,人工智慧系統又該怎麼做?


機器人傷人事件沒有意識的它只是人類操控下的傀儡


除了語義,在邏輯上,如果按照阿西莫夫定律,那麼“機器人傷害人類”就是一個“無解”的問題。舉個例子,當劫匪實施搶劫之時,按照定律,哪怕受害人下了殺死劫匪的命令,機器人依然要在不傷害劫匪的前提下保護受害人,如此一來,機器人唯有擋在受害人面前接受劫匪的傷害,但是這就違背了第三定律,如此一來,三定律之間本就是相互矛盾的。此外,若是劫匪綁架了人質要求銀行交出錢財,機器人是該為了個人的“整體”而交出錢財,還是為了群體的“整體”而殺死劫匪和人質?其實,不管是哪種做法,現實中的機器人終會違背機器人三定律,就如上文所講,如果按照阿西莫夫三定律行事,機器人只會陷入無限的糾結之中。


機器人傷人事件沒有意識的它只是人類操控下的傀儡


所謂的“機器人殺手”多隻是人類的“傀儡”


事實上,不管機器人三定律怎麼說,或是人類怎麼執行,人們口中所講的“機器人殺手”都顯得有點名不符實,這只是人類對其一種淺顯的定義。


機器人並不具備“自主意識”


鑑於深度學習演算法的強大,作為機器人的一些附屬技術,語音識別、影像識別等技術愈發精進,再過個幾年,其效能更是能與人類一較高下。


以語音識別為例,其最主要的用處在於人機語音互動。目前,人工智慧的語音識別技術已經相當成熟了,不過,這還只是語音互動的第一步而已。此前,在一場針對自然語言處理的圖靈測試中,聊天機器人可謂全軍覆沒,而造成這種現象的關鍵因素就在於深度學習演算法的不足。


深度學習演算法是人造神經網路的主幹之一,而人造神經網路是機器人能夠“自學”、有“自主意識”的所要解決的最大難題。看當前的人機語音互動的缺陷,顯然人造網路神經的發展還不足以支撐“自主意識”機器人的研製。如此一來,在人造神經網路不完善、機器人沒有“自主意識”,甚至連“意識”這一詞彙都沒有具體定義的情形下,機器人又怎知何為“傷害人類”?又如何稱得上“機器人殺手”?只是一種略微誇大的稱呼罷了。


機器人傷人事件沒有意識的它只是人類操控下的傀儡


“機器人殺手”的背後都是人類


縱觀如今現世的機器人,論意識的話,也只有堪堪的幾家團隊的機器人具備了一些基本的意識,並不具備成為“機器人殺手”的資格。此前,美國達拉斯市警方使用一臺機器人引爆炸彈,從而殺死嫌疑犯,由於是第一次在戰場之外造成傷亡,這件事在當時引起了全世界的轟動。


此次事件後,“機器人殺手”相關論言被頂上了輿論的高峰。然而,當很多人將關注點放在“機器人殺人”上面時,他們都忽略了一個事實——是人類操控著機器人引爆了炸彈,是人類操控著機器人殺死了嫌疑犯。除此以外,這些年來,機器人越來越多的被投放於戰場,像無人機、裝載殺傷力武器的機器人戰車等等,它們的行動依據是什麼?是人類提前放入的地圖,以及設定的程式,而在行動過程中,這些機器人還將受到人類的指揮。


以此來看,在不具備“自主意識”的前提下,作為人類教導、訓練出來的產物,人們口中的“機器人殺手”充其量也只是人類手中的“傀儡”。而在阿西莫夫“機器人三定定律”中,與其將問題拋給不具備“自主意識”的機器人,不如說是將問題拋給了其被背後的人類操控者。


機器人傷人事件沒有意識的它只是人類操控下的傀儡


結語


從系統中的演算法,到所載入的各項人工智慧技術,再到身體構造的每一個細小零件,機器人的每絲每毫都是人類所賦予的。在一個機器人的研製過程中,研究人員會將很多知識、資料輸進機器人的“大腦”,在此基礎之上,機器人擁有了一些基本的“自學”能力。


既然是“自學”,就一定會有一個“學習物件”,而人類就理所當然的成為了機器人的“父母”(“人”生的第一個啟蒙老師)。這裡有一個典型的案例,今年3月,微軟在Twitter上推出聊天機器人Tay,結果在不到一天的時間裡,Tay就被網友“教”壞了,不僅滿嘴髒話,更是有了種族歧視,鑑於種種劣跡,微軟將其關了禁閉。從這件事中,我們看到了機器人“自學”能力的強大,也看到了人類的教導責任之重。


在未來,機器人極有可能會擁有“自主意識”,如果不加以正確的指引,“機器人殺手”不日就會到來。由此,為了避免“機器人殺手”的出現,為了讓機器人不傷害人類,在提升機器人效能的同時,人類的相關素質是不是也該抓抓緊了。當然,我們不能百分百的將希望寄託於人性,所以加強網路安全也成了必然,以此避免機器人落入不法分子手中,或是在機器人中設定特定程式,能夠在最佳時機一鍵停止機器人的所有機能。

原文釋出時間:2016-11-21 21:41
本文作者:韓璐
本文來自雲棲社群合作伙伴鎂客網,瞭解相關資訊可以關注鎂客網。


相關文章