機器人三定律有瑕疵,授權理念才能保護人類?

佚名發表於2017-07-20

正如可以保護你、幫助你、支援你一樣,機器人也可能會傷害你。如何構建一套放之四海皆準的機器人行為原則,是科技工作者不得不面對的技術和倫理雙重難題。赫特福德大學的人工智慧學者ChristophSalge博士撰文分享了自己的思考。

機器人三定律有瑕疵,授權理念才能保護人類?

如何避免機器人傷害他人?許多現有的機器人,比如在工廠裡組裝汽車的機器人,在人類接近的時候就會立即關閉電源。但是,這種簡單粗暴的解決方案並不適用於自動駕駛汽車,它可能需要在發生車禍時緊急移動,或者是對於一個護士機器人來說,因為它可能需要在老人摔倒之前扶起對方。

隨著機器人成為我們的僕人、夥伴和同事,我們需要處理日益複雜的情況,以及可能引發的倫理和安全問題。科幻小說已經預見了這個問題,並提出了各種可能的解決方案。最著名的是阿西莫夫(IsaacAsimov)的機器人三原則,它們的提出是為了避免機器人傷害人類。自2005年以來,我和我在赫特福德大學的同事們一直在研究一個可以替代的想法。

我們認為不應該限制機器人的行為,機器人應該被賦予最大限度發揮它們行動能力的權利,這樣它們就可以為任何特定的場景挑選最好的解決方案。正如我們在一篇新論文中所描述的那樣,這一原則可能構成一套新的通用準則的基礎,以使人類儘可能安全。

阿西莫夫的三原則

1.機器人不可能傷害人類,或者透過不作為,讓人類受到傷害。

2.機器人必須服從人類的命令,除非這樣的命令與第一定律相牴觸。

3.機器人必須保護自己的存在,只要這種保護不與第一或第二定律相牴觸。

儘管這些原則聽起來相當有理,但無數批評已經揭示了它的不足。Asimov自己的故事可以說就是對自己所提出的這三項原則的解構了,展示了它們在不同的情況下是如何失效的。目前,大多數試圖起草新指導方針的嘗試都遵循了類似的原則,以創造出安全、順從和有效的機器人。

任何明確制定的機器人指導方針所存在的一個問題是——我們需要將它們轉換成機器人能夠處理、理解和運用的格式。理解人類語言和語言背後的生活經驗對於一個機器人來說是非常困難的。寬泛的行為目標,例如避免對人類造成傷害或保護機器人自身的存在,在不同的情況下可能意味著不同的東西。遵守這些規則可能最終會讓機器人無法像它的創造者所希望的那樣行事。

新理念:授權

我們的另一種理念——授權,代表著無助的反面。被授權意味著有能力、並意識到你可以產生影響。我們一直在開發將這個社會概念轉化為可量化和可操作的技術語言的方法。這將使機器人能夠保持它們的選擇,並以一種增加它們對世界的影響的方式行動。

當我們嘗試模擬機器人如何在不同的場景中使用授權原則時,我們發現它們通常會以令人驚訝的“自然”的方式行動。它通常只要求他們對真實世界的運作模式進行建模,但不需要任何專門的人工智慧程式設計來處理特定的場景。

但是為了保證人們的安全,機器人需要努力維持或改善人類的授權,以及他們自己的賦權。這基本上意味著要具有保護能力和支援性。為人開啟一扇鎖著的門會增加他們的賦權。限制人類將會導致對機器人的短期授權失效。而對人類的嚴重傷害可能會完全消除機器人被賦予的權力。與此同時,機器人必須努力保持自身的運作力量,例如確保它有足夠的能量來運作,而不會被卡住或損壞。

機器人可以適應新的環境

使用這一通用原則,而不是預先設定的行為規則,可以讓機器人考慮環境,並評估人們未曾設想過的場景。例如,機器人不會總是遵循“不能推人類”的規則,而是會在人們可能被一個墜落物砸到之前將他們推出去。人可能仍會受到傷害,然而這種傷害相比之下更小。

在電影《I,Robot》中,機器人處在一個令人壓抑的狀態中,透過限制和“保護”來減少對人類的整體傷害。但我們的原則是避免這樣的情況,因為這意味著機器人失去了人類的賦權。

儘管“授權”提供了一種新的思考安全機器人行為的方式,但我們仍有許多工作要做。我們要提高它的效率,這樣它就可以很容易地部署在任何機器人上,並外化為機器人良好、安全的行為。這是一個非常困難的挑戰,但是,我們堅信,授權可以讓我們找到一個切實可行的解決方案,來解決當前充滿爭議的問題,即如何控制機器人的行為,以及如何讓機器人——在最基本的意義上——“具備道德倫理”。

相關文章