幾年前,關於人工智慧的法律人格和法律權利的話題可能只會在科幻小說中出現。但這只是過去。
你必須爭取的AI權利
而最大型的專案旨在創造更多的生物合成演算法,目的是複製人類大腦的運作方式,而不只是簡單地模仿我們的記憶方式。此外,還有一些專案旨在將人類意識轉化為機器形態,或者類似於所謂的“OpenWorm”專案,這一專案旨在為微小的雌雄雙性線蟲構造出人類的神經連線體(即中樞神經系統的連線圖),而這是人類迄今所能完成的唯一一幅完整的神經連線體。
在2016年進行的一項調查中,175名行業專家中有90%的人認為,到2075年,人工智慧可以達到與人類對等的水平。
在我們達到這個水平之前,隨著人工智慧逐漸超越動物智慧,我們將不得不開始思考,人工智慧的權利與我們給動物定義的“權利”之間有什麼關係。想象一下,強迫智慧電梯上下移動的行為可能是很殘忍的。幾年前,英國科技作家比爾·湯普森曾寫道,人們在開發AI產品時總是傾向於不傷害到自己,“這反映出人們總是認為人工智慧是為人類服務的,而不具有獨立的思維。”
然而,我們現在所面臨的最緊迫的問題關乎到人工智慧是否具有合法權利。簡單地說,我們是否應該考慮授予它們某種形式的法律人格呢?這並不像聽起來那麼荒謬,也不代表在我們的社會中AI已經“上升到了”某種特定的地位。但是這反映了目前AI在我們的生活中扮演的並且將繼續發揮作用的角色。
非智慧律師時代的智慧工具
到目前為止,這種思維模式在很大程度上被直接運用到了人工智慧和機器人的世界。1984年,一家名為Athlone Industries的美國公司的所有者被告上了法庭,因為人們認為他們的擊球訓練機器太過殘暴。該案之所以值得提起,是因為法官宣佈訴訟是針對Athlone公司,而非擊球機器人,因為“機器人不能被起訴”。
2009年,一名英國司機在他的GPS系統指示下沿著一條狹窄的懸崖邊行駛,結果導致他被困,不得不被警察拖回主路。儘管他將問題歸咎於技術,但法院認定他犯有疏忽大意的錯誤。
然而,今天(當然也包括未來)的人工智慧技術和昨日的科學技術之間存在著太多差異。像自動駕駛汽車或機器人這樣的智慧裝置不僅會被人類使用,而且會被支配——當然,之後它們會獨立完成指令。智慧裝置能夠運用機器學習演算法,自行收集和分析資訊,然後做出決定。這也不能完全責怪技術的創造者。
正如華盛頓喬治城大學的法學教授大衛·維拉德克所指出的,在這一領域少數的深入案例研究中,有大量的個人和公司參與了人工資能元件的設計、修改和整合,因此很難確定誰來負最終的責任。當談論人工智慧的“黑匣子”時,這個系統是非常難以捉摸的。
大衛·維拉德克曾寫道:“一些元件可能是在人工智慧專案還沒被構思出來之前就已經被設計出來了,而元件的設計者們可能從來沒有想過,他們的設計會被納入任何人工智慧系統,更不用說那些造成傷害的人工智慧系統了。”在這種情況下,如果把責任歸咎於一個並沒有參與到人工智慧系統的完成和操作過程中的元件設計者,聽起來並不公平。法院可能難以判定,這樣一個元件的設計者是否預見到了所發生的危害。
公司所扮演的角色
佛羅里達州立大學的法學教授肖恩·拜恩指出,儘管還沒有經過檢驗,但人工智慧可能已經擁有了這種地位,因為AI可以管理有限責任公司,所以可以擁有法律上的獨立地位。如果像比爾·蓋茨的“機器人稅”這樣的提案在法律層面上被認真對待,那麼稅收層面的因素也需要被考慮進來。
然而,爭議仍然存在。如果人工智慧能以某種方式執行一些責任不明晰的行為,那麼它的創造者可能就會藉此擺脫責任。而且,這也可能會使AI工具的研發人員消極怠工——因為AI表現不符合預期時,他們就有理由不再進行進一步開發。
目前也沒有辦法懲罰人工智慧,因為像監禁或死刑這樣的懲罰對人工智慧來說毫無意義。
愛爾蘭國立大學的法學教授約翰·丹納赫關於人工智慧法律人格的看法是:“我不認為這是一件正確的事,至少現在不是。”“我的猜測是,在可預見的未來,這種做法主要是為了推卸人類的責任,來掩蓋一些反社會活動。”
然而,這個領域並不依賴於任何以主觀意識為目標的基準。
《人類簡史》和《未來簡史》的作者尤瓦爾·赫拉利說,“在今天,公司擁有合法的權利而且被視為法人,但大多數動物都沒有。”“儘管企業顯然沒有意識,沒有人格,沒有體驗幸福和痛苦的能力。而動物則是有意識的實體。不管人工智慧是否發展出了意識,都可以有經濟、政治和法律上的理由賦予它人格和權利,就像企業可以獲得法律人格和權利一樣。事實上,人工智慧將來可能會主導某些公司、組織甚至國家。科幻小說中很少提及到這種情況,但我認為它比《西部世界》和《蘋果核戰記》中的故事更有可能發生。”
不再是科幻小說
約翰·丹納赫說,“給任何實體賦予法律人格的決定,基本上都可以簡單地分為兩個子問題。這個實體是否應該被當作道德主體來對待,它應該對自己的行為負責嗎?另一個問題是,這個實體是否應該被當作一個道德客體來對待,從而受到保護,免受某些干擾和以及對其完整性的侵害呢?我的觀點是,AI不應該被當作道德主體,至少暫時不會。但我認為,在某些情況下,它們應該被視為道德客體。我認為,人們可以在很大程度上依賴人工智慧伴侶,因此,在很多情況下,改編或破壞這些實體是錯誤的行為。這意味著我們可能要對AI負責,而不能破壞或者侵犯它們的完整性。”
換句話說,當涉及到人工智慧工具時,我們不應該允許企業逃避責任。隨著人工智慧系統從自動駕駛汽車、金融交易員、無人駕駛飛機和機器人等各種領域進入現實世界,至關重要的一點是,有人要為他們所做的事情負責。
同樣,將人工智慧和人類的關係與先前的非智慧技術視為同等性質也是錯誤的。
這關乎一個學習曲線。而且即便我們在技術上還沒有達到擔心AI主權的階段,這並不意味著這是一個錯誤的問題。所以當Siri沒有聽清楚你的問題並詢問是否搜尋網頁時,不要再對它大喊大叫了,好嗎?
作者 Luke Dormehl
來自:網易智慧