人工智慧:合作還是攻擊

OReillyData發表於2017-06-20

編者注:欲瞭解更多資訊,請檢視2017年6月26日至29日在紐約舉行的人工智慧會議。

更多內容可以參考Strata北京2017的相關議題。

有不少的傳言提到DeepMind的一些實驗研究人工智慧系統在玩遊戲時是否具有攻擊性或合作性。遊戲裡,參與者收集虛擬蘋果,同時他們有能力通過“射擊”虛擬的“鐳射”來臨時性地使對手喪失能力。人類感到驚訝地發現,人工智慧有時決定通過射擊對手來獲得優勢,而不是和平地收集蘋果。

我的問題很簡單:這能告訴我們什麼?答案也很簡單:什麼都沒有。如果你讓人工智慧玩遊戲,並允許向它向對手射擊鐳射,你應該不會驚訝於人工智慧會向對手發射鐳射,無論對手是虛擬的還是真實的。你不會期望它預先制定一些版本的阿西莫夫法則,並說:“我不能這樣做”(如果軟體不允許它發射鐳射,那麼它不會,但這不會有趣)。你不能指望人工智慧會有良心的危機,並說:“不,不,我不能這樣做”,除非是給它程式設計某種負罪感模組。但據我所知這種模組不存在。

畢竟人類做著同樣的事情。我們在第一人稱射擊遊戲以及現實生活中開槍殺人。我們的政府有整個專門組織殺死別人的部門。而諷刺的是我們稱之為“維護和平”。雖然人類有一個負罪感模組,但通常只有事後才能起作用。

像這樣一個遊戲可能回答的唯一有趣的問題是:人工智慧系統是否比人類更願意扣動扳機。我願意打賭:

  • 當電腦對抗人類時,電腦會贏。我們已經有足夠的在國際象棋、圍棋和撲克方面失敗的確鑿經驗了。

  • 人類更有可能去使用槍,因為這就是我們所做的。 DeepMind的研究表明,計算機只會在射擊是成為獲勝的有效策略的一部分時才開火。它不會因為應激反射、害怕或僅為找樂子而開槍。

這取決於你來決定射擊作為獲勝的有效策略的一部分是不是對人類行為的改進,但這正是我期望的。通過拒絕攻擊性,DeepMind並沒有在圍棋上打敗李世石。

即使如此,考慮到我們只是在談論一個遊戲,我不確定這個實驗向我們展示了什麼。我覺得人工智慧會在第一人稱視角的射擊遊戲裡表現得非常好。同時我也看不到任何理由在僅僅只是消滅位元的情況下,人工智慧會衍生出阿西莫夫法則。我肯定不會志願參加一個真實版的射擊活動去對抗那些令人害怕的Boston Dynamics公司的產品。我更希望沒有人計劃進行這種實驗。

同樣,我看不出任何理由認為人工智慧“知道”宇宙中的東西不僅僅是位元。我們對“機器學習”著迷,但最後,機器只會學到我們告訴他們學習的東西。我對奇點論持懷疑態度,但我同意當電腦完全依靠自己學習時,我們將面臨一個奇點,即通過其感測器進入的某些位元模式是人,而這些位元的模式在性質上不同於狗、貓或岩石的模式。

最後,我們回到我們開始的地方。對人工智慧的恐懼反映了我們對自己的恐懼。人工智慧模仿人類的行為,因為我們教會它這樣做:即在我們這裡的清苦是是,要求它玩人造規則的遊戲。正如我所說,如果我們想要更好的人工智慧,我們必須是更好的人類。如果我們想要一個可以區分人與位元的人工智慧,我們必須教會它人類是什麼,以及在人存在時如何表現不同(“你可以射狼,你不能射人”)。如果根本不想讓人工智慧應用開槍,我們必須開發沒有開槍能力的軟體。

不要給你的人工智慧槍支。

This article originally appeared in English: "Artificial intelligence: Cooperation vs. aggression".

640?wx_fmt=jpeg

Mike Loukides

Mike Loukides是O'Reilly傳媒負責內容策略的副總裁。他編輯了很多非Windows程式設計方面廣受好評的技術書籍。特別是他對程式語言、Unix和其上的應用、系統和網路管理感興趣。Mike是《系統效能優化》和《Unix上的強大工具》的作者之一。近年來他關注於資料和資料分析領域、分析語言(如R)、數學、Octave以及思考如何讓書籍更加社交化。


Strata Data Conference北京站大會還有一個月即將召開,

有需求的同學請抓緊時間,

點選二維碼即可登入會議官網報名。

640?wx_fmt=png



相關文章