讀人工智慧全傳11人工智慧會出什麼錯

躺柒發表於2024-07-13

1. 人工智慧會出什麼錯

1.1. 一些報導是公正合理的,不過坦白地說,大部分報導都愚蠢得無可救藥

1.2. 一些報導頗有知識性和引導性,而大部分則是杞人憂天式的恐嚇

1.3. 滑稽的報導迎合了大眾對人工智慧的“終結者式恐懼”

1.3.1. 我們創造出怪物的想法絕不是現代才有的:它至少可以追溯到瑪麗·雪萊的《弗蘭肯斯坦》

1.4. 鼓吹人工智慧“終結者式恐懼”真的會帶來很嚴重的後果

1.4.1. 它讓我們擔心一些我們完全沒必要擔心的問題

1.4.2. 它讓人們把注意力從真正應該關注的人工智慧問題上轉移開

1.5. 人工智慧倫理

1.5.1. 人工智慧系統充當道德智慧體的可能性,以及已經提出的各種有關人工智慧的倫理框架

1.6. 人工智慧的一個特點,就是它們很容易出故障

1.6.1. 儘管還沒到特別可怕的程度:如果我們想要一個人工智慧系統代替我們工作,那麼就需要跟它溝通我們想要的東西

2. 摩爾定律

2.1. 計算機處理器公司英特爾的聯合創始人戈登·摩爾(Gordon Moore)在20世紀60年代中期提出的,所以以他的名字命名

2.2. 按照摩爾定律,計算機處理器的功率每隔18個月就會提升一倍

2.3. 摩爾定律有幾個重要的推論,其中之一是計算機處理器的能耗會以同樣的速度降低,處理器本身的體積也會逐漸縮小

2.4. 近50年來,摩爾定律一直被證明是非常可靠的,而在2010年前後,現用處理器技術開始觸及物理極限

3. 奇點

3.1. 來源於美國未來學家雷·庫茲韋爾(Ray Kurzweil)於2005年出版的著作《奇點臨近》

3.1.1. 其背後的關鍵思想是,人類創造技術的增速正在加快,技術的力量正在以指數級的速度擴張

3.1.2. 在幾十年內,以資訊為基礎的技術將涵蓋所有人類的知識和技能領域,最終包括人類大腦自身的模式識別能力、解決問題的技能,以及情感和道德

3.2. 奇點是指計算機智慧(通用意義上)超過人類智慧的一個假想點

3.2.1. 有人認為,到達奇點以後,計算機可以開始運用自己的智慧來改進自己,這個過程就會持續自我完善

3.2.2. 從這一點上說,自奇點之後,僅僅依靠人類的智慧就不可能重新獲得計算機的控制權了

3.3. 庫茲韋爾的推論主要基於

3.3.1. 計算機硬體(處理器和記憶體)的發展速度很快會超過人腦的資訊處理能力

3.3.2. 他的推論引用了計算機領域一個著名的定律——摩爾定律

3.4. 懷疑奇點主義的其他理由

3.4.1. 單純的計算機處理能力的提高不會導致奇點的必然出現

3.4.1.1. 人工智慧軟體(例如機器學習)的改進速度比硬體發展速度要慢得多

3.4.2. 即使人工智慧真的能達到人類級別的智慧化,也不意味著它就能夠以超出我們理解的速度提升自己

3.4.3. 假設你聚集了1000個愛因斯坦的克隆體,它們的集體智慧會是愛因斯坦的1000倍嗎?

3.4.3.1. 雖然1000個愛因斯坦克隆體可以比1個愛因斯坦更迅速地完成一些事情,但並不代表它們就變得更聰明瞭

3.5. 人工智慧會不會有一個利奧·西拉德式的靈光閃現呢?

3.5.1. 就在盧瑟福否定核能可用性的第二天,物理學家利奧·西拉德(Leo Szilard)在倫敦一邊過馬路,一邊仔細思考盧瑟福的宣告,突然就冒出了核連鎖反應的點子

3.5.1.1. 10年後,美國向日本城市投放原子彈,釋放出恐怖的能量,而這一切,就來源於西拉德的靈光一閃

3.5.2. 過去60年人工智慧研究的所有經驗告訴我們,人類水準的人工智慧並非如此

4. 機器人三定律

4.1. 阿西莫夫最早在1939年制定了三定律

4.2. 第一定律:機器人不得傷害人類,也不得因為不作為而讓人類受到傷害

4.3. 第二定律:機器人必須服從人給予它的命令,除非該命令與第一定律衝突

4.4. 第三定律:機器人在不違反第一、第二定律的情況下要儘可能保證自己的生存

4.5. 它們設計得雖然精巧,但阿西莫夫的故事很多時候都是發生在定律有缺陷或者互相矛盾的情況下

4.6. 雖然阿西莫夫的機器人三定律為人工智慧系統的構建提供了高層次的原則性指導,但把三定律真正編碼進入人工智慧系統中的想法,並不現實

5. 電車難題

5.1. 電車難題是倫理哲學領域最著名的思想實驗之一,最初由英國哲學家菲利帕·富特(Philippa Foot)於20世紀60年代末提出

5.2. 由於無人駕駛汽車即將到來,電車難題迅速凸顯

5.2.1. 無人駕駛汽車很可能陷入類似電車難題的困境,然後人工智慧軟體就會被要求做出艱難的選擇

5.3. 結果主義者

5.3.1. 只死一個人總比死五個好

5.3.2. 因為它根據行為的後果來評估行為的道德性

5.3.3. 最著名的結果主義應該是功利主義了,它起源於18世紀英國哲學家傑里米·邊沁(Jeremy Bentham)和他的學生約翰·斯圖亞特·密爾(John Stuart Mill)

5.3.3.1. 提出了一個被稱為“最大幸福原則”的理論,大致來說就是一個人選擇的任何行為,都會使“世界總體幸福”最大化

5.3.3.2. 在更現代的術語中,我們會說功利主義者是為了社會福利最大化而行動的人

5.3.3.2.1. 功利被定義為社會福利

5.3.4. 假設電車難題中的五個人是邪惡的殺人兇手,而另一個人是無辜的小孩

5.4. 如果一項行為符合普世的“善意”行為原則,那麼它是可以接受的,標準例子就是“奪取別人性命是錯誤的”原則

5.4.1. 信奉這樣原則的人不會對電車難題採取任何行動,即無作為,因為他們的行為會導致謀殺,雖然不採取任何行動也會導致人死亡

5.5. 美德倫理學

5.5.1. 我們認為一個“有道德的人”體現了我們渴望決策者身上有的美德,然後,我們可以得出結論,他在這種情況下所做的選擇,就是正確的選擇

5.5.2. 我們應該捫心自問,在這樣的情況下,期望人工智慧做出正確選擇是否合理

5.5.3. 所知道的道德倫理,尤其是有關電車難題的倫理,僅僅是上述你讀到的假設情況而已,我不需要透過道德倫理考試才能拿到駕照

5.5.4. 在這類倫理問題上,無論你認為自己的答案多麼理所當然,其他人總會有不同答案,他們也認為那才是順理成章

5.6. 道德叢集

5.6.1. 每一個都體現了具有獨特特徵的倫理框架

5.6.2. 西部叢集包括北美和大多數歐洲國家

5.6.3. 東部叢集包括許多遠東國家,如日本和中國,以及伊斯蘭國家

5.6.3.1. 與西部叢集相比,東部叢集更傾向於保護合法的人而不是罪犯,更傾向於保護行人而不是車上的乘客,而且更傾向於保護年輕人

5.6.4. 南部叢集包括中美洲、南美洲和拉丁美洲國家

5.6.4.1. 南部的叢集似乎更關心的是如何保護地位高的個體,以及年輕人和女性

6. 人工智慧倫理

6.1. 最早也是最有影響力的人工智慧道德框架之一是阿西洛瑪人工智慧準則

6.1.1. 由一群人工智慧科學家和評論員於2015年和2017年在加州的阿西洛瑪度假勝地確定的

6.1.2. 一共有23條

6.2. 2018年,谷歌釋出了自己的人工智慧道德指南

6.2.1. 比阿西洛瑪準則略簡潔,它們涵蓋了許多相同的領域(有益、避免偏見、安全)

6.2.2. 谷歌還就人工智慧和機器學習開發的最佳實踐提供了一些具體指導

6.3. 2018年底,歐盟提出了另一個框架,還有一個框架是由IEEE(電氣和電子工程師協會,一個非常重要的計算機和資訊科技專業學會)提出的

6.4. 許多大公司(不僅僅是IT公司)也釋出了他們自己的人工智慧道德準則

6.5. 他們是否真正理解所承諾的東西,這才是難點

6.5.1. 高層的願景是很美好的,比如分享人工智慧的益處,肯定受歡迎,但是將其轉化為具體行動卻並不容易

6.6. 解釋義務主要是指,比如一個人工智慧系統做了一個對某人有重大影響的決策,那麼這個人有權要求系統對這個決策進行解釋

6.7. 責任則意味著應該明確對決策負責的智慧體,而且,最重要的是,我們不應該試圖聲稱人工智慧系統本身要對決策“負責”,責任方應該是部署該系統的個人或者組織

6.7.1. 道德智慧體通常被理解為一個實體,它能夠分辨是非,並理解其行為所導致的後

6.7.2. 軟體是不能被追究責任的

6.7.3. 人工智慧研究中的責任並不意味著製造出有道德責任的機器人,而是以負責任的方式開發人工智慧系統

6.7.4. 軟體在這裡不是罪魁禍首,開發和部署它的人才是

6.7.5. 負責任的設計在這裡意味著人工智慧將始終清晰地表明它的非人類身份

6.8. 透明度意味著一個系統使用的資料應該是可獲取的,其中使用的演算法也應該是清晰明確的

7. 平凡的現實

7.1. 工智慧軟體就只是軟體而已,我們不需要創造什麼新奇的技術讓軟體出錯

7.2. 軟體本身就有缺陷,沒有缺陷的軟體是不存在的

7.2.1. 只是有的軟體因為缺陷崩潰了,而有的沒有

7.3. 開發無缺陷軟體是計算機領域的一項重要研究,發現和消除缺陷是軟體開發的主要內容之一

7.3.1. 但是人工智慧軟體為引入缺陷提供了新的方式

7.4. 如果人工智慧軟體要代替我們工作,我們需要告訴它希望它做什麼,這往往不像想象中那麼容易

7.4.1. 我們想把自己的意願傳遞給計算機,這樣計算機可以代表我們去達成它

7.5. 將意願準確地傳達給計算機,本身就是一個非常有問題的過程

7.5.1. 我們可能並不知道自己想要什麼,至少並非明確知道,在這種情況下,表達自己的意願幾乎不可能

7.5.2. 我們不可能一次說清自己的偏好,所以通常我們所做的是對意願和偏好進行概述,而概述和全面的敘述之間總會存在差距,人工智慧又該如何彌合這些差距呢?

7.5.3. 當我們和人類交流的時候,通常預設彼此間有共同的價值體系和規範

7.5.3.1. 人工智慧並不清楚這些預設的價值體系和規範,它們必須得到明確的說明,或者我們需要透過某種方式保證人工智慧系統的後臺存在這些東西

7.6. 不通情理的例項化

7.6.1. 計算機按照你的要求去做了,但並沒有按照你預期的方式

7.6.2. 你要求機器人確保你的房子不會被竊賊入侵,它索性一把火把房子燒了

7.6.3. 你要求機器人保證人類不會得癌症,它乾脆把所有人都殺了

7.7. 每當有人設計了一套旨在鼓勵某一類行為的激勵機制時,總有人會找到某種博弈方式,在不按預期行事的情況下獲得獎勵

7.8. 設計一種人工智慧系統,以儘量減少其行為對周圍環境的影響

7.8.1. 希望它完成任務的同時,保持其他一切儘可能不發生變化

7.8.2. 強化學習的目的是找到一個行動過程,最大限度地獲取獎勵

7.8.3. 逆向強化學習就是針對這一問題展開的

7.8.3.1. 在逆向強化學習中,我們首先確定了“理想”的行為(即人類會怎麼做),然後再製定人工智慧軟體能獲得的相關獎勵

7.8.3.2. 簡言之,我們是將人類的行為視為理想行為的典範

相關文章