讀寫給大家的AI極簡史筆記01機器決策

躺柒發表於2024-07-18

1. 識別、洞察、行動

1.1. 當你不知道該做什麼時,智力就是你需要使用的東西。

1.1.1. [瑞士]讓·皮亞傑(Jean Piaget),生物學家和發展心理學家

1.2. 對於人類來說很難的事情,對機器來說很簡單。

1.2.1. 因為從可控硬體中學習資料的軟體已經越來越熟練地掌握了識別、洞察和執行這個三角系統

1.3. 幾年前,在任何情況下,我們都完全有理由不把這個決定權交給機器

1.3.1. 這項技術還沒有被證明比我們自己坐在方向盤後面更有可能把我們安全地帶到目的地,因為我們不僅熟悉交通規則,有豐富的經驗與預測人類行為的能力,還有直覺

1.4. 今天,特斯拉的駕駛員們已經將許多駕駛決策委託給計算機

1.4.1. 自主駕駛的執行遠非完美

1.4.2. 在天氣良好和有清晰標註的公路上,自動駕駛系統顯然已經是比人類更好的駕駛員

1.4.3. 在城市裡,晚上或在大霧天,自動駕駛系統優於人類駕駛也只是個時間問題

1.5. 計算機在過去的幾年裡已經獲得了識別事物的能力

1.5.1. 不僅特斯拉所配備的GPS導航、高解析度照相機、鐳射和雷達感測器能精確地告知自動駕駛系統汽車的位置、卡車的行駛速度、道路狀況及右邊是否有緊急通道,該系統的影像識別軟體還可以可靠地識別出閃爍的燈是卡車的轉彎訊號燈,而不是遠處建築工地上的燈

1.5.2. 如今最好的計算機已經能區分出地面上的物件是汽車能安全碾過的碎紙還是它需要繞行的石頭

1.6. 所有的視覺(和其他感官)資料流入一個小型的超級計算機,也就是汽車的人工大腦

1.6.1. 處理器必須以秒為單位對資訊進行排序,同時將實時資料與先前收集的資料、已程式設計到系統中的規則同步

1.6.2. 透過對幾十億英里的道路交通訊息——反饋資料——進行學習,自動駕駛系統得到了加強,它甚至知道卡車司機並不總是遵守交通規則

1.6.3. 它也知道,如果一輛自動駕駛汽車冒著發生嚴重事故的危險堅持遵守交通規則,是不符合乘客最大利益的

1.7. 自動駕駛系統根據觀測到的情況、程式設計規則和以往的經驗,在許多可計算的場景中推斷出避免事故的最佳選擇,同時仍然帶領特斯拉快速前進

1.7.1. 在本質上,這是一個認知決定,一個對行動方針的選擇

1.7.2. 這個問題的最佳解決方案其實是一個基於許多變數的機率計算

1.8. 一個真正的自動駕駛系統將直接做出自行的判斷並付諸行動

1.8.1. 飛機的自動駕駛儀在正常情況下比任何頭戴機長帽的飛行員都能更精確地控制飛機起飛或降落

1.8.2. 在完全數字化系統下用於高頻股市交易的機器人會自動執行決策

1.8.3. 它們的自動化原理是一樣的:識別資料中的模式,從統計和演算法中推斷出結論,再透過技術程式將結論變成決定並加以執行

2. 博蘭尼悖論

2.1. 它描述了一個以前軟體程式設計師無法逾越的極限:沒有理論,沒有規則,我們就不能把知識和能力傳授給機器

2.2. 衡量決策的影響並將其納入未來決策是人工智慧系統本質的一部分

2.3. 人工智慧系統是基於反饋做出決定的

2.3.1. 人工智慧和傳統IT系統的本質區別在於人工智慧能夠獨立改進自己的演算法並對結果進行評級

2.3.2. 自動校正是內建在AI系統中的

2.4. 自20世紀40年代第一臺大型計算機問世以來,計算機程式設計意味著人類需要耗費大量精力將理論模型輸入機器之中

2.4.1. 本質上,經典程式設計就是將現有知識從程式設計師的頭腦中轉移到一臺機器上

2.4.2. 但是這種技術方法有一個自然的限制:人類的大部分知識是隱性的

2.4.2.1. 人類可以識別出面孔,但不知道自己是如何做到的

2.4.2.2. 進化賦予了人類這種能力,但是我們沒有很好的理論來解釋為什麼我們能夠瞬間識別安吉拉·默克爾(Angela Merkel)或喬治·克魯尼(GeorgeClooney),即使在光線很差或是人臉被遮住了一半的情況下,我們也能識別

2.5. 人工智慧則克服了博蘭尼悖論——人類只創造機器學習的框架

2.5.1. 遵循的基本原則都是隻給計算機目標,而不是理論和規則

2.5.2. 計算機透過許多例子和反饋,學習如何在訓練階段達到人類設定的這些目標

2.6. 人們經常討論的一個問題是反饋迴路中的機器學習在實際上是否是智慧的

3. 強弱人工智慧

3.1. 強人工智慧(或稱為廣義的人工智慧)

3.1.1. 有強認知的、像人類一樣的AI

3.2. 弱人工智慧

3.2.1. 包括那些今天在技術上就已經可以實現的弱人工智慧,以及在可見的未來會出現的弱人工智慧

3.3. 米國語言哲學家約翰·羅伯特·塞爾(John Robert Searle)在40年前就提出了強弱人工智慧的區別

3.4. 目前,強人工智慧還只存在於科幻小說中,而弱人工智慧已然存在於計算機系統中,並處理著各種直到最近我們還以為只有人類大腦才能處理的任務

3.4.1. 弱人工智慧通常涉及經典的知識性工作任務,例如稽核保險公司的案卷或寫作新聞或體育報導

3.5. 人工智慧嵌入到物理機器中,不僅能使汽車智慧化,而且能使工廠、農業裝置、無人機及救援和護理機器人智慧化

3.5.1. 智慧機器完全不必模仿人類完成任務的方式或人類大腦中任何意義上的生化過程

3.5.2. 它們通常具有自主搜尋數學解析路徑、改進已有演算法,甚至獨立開發演算法的能力

3.5.3. 結果是機器比人類做得更好、更快,也更便宜

3.5.3.1. 在解決問題方面,如果機器比人類更優越,機器系統的普及速度就會更快

3.5.3.2. 新技術的引進和傳播週期正在縮短

3.6. 人類對於文明的態度將加速或減緩創新被接納的速度

3.6.1. 當前的機器人在歐洲是敵人,在米國是傭人,在東大是同事,在霓虹國是朋友

3.6.2. 從長遠來看,投資回報率才是影響全球對機器人態度的關鍵

3.6.2.1. 而收益通常是以金錢衡量的

3.6.2.2. 雖然亞馬遜需要在自動化貨架和收銀機系統上投資數百萬美元,但在人事成本上它卻節省了數百萬美元,於是它在之後的某月或年中就可以收回成本

3.6.2.3. 如果紐約基因組中心能夠在10分鐘內用IBM Watson應用程式分析患者的遺傳物質,以便提出可能成功的治療方法,而高水平的醫生需要 160個小時進行同樣的分析,那麼這時機器人所帶來的回報就不是以美元計算了,這時候的衡量標準變成了被挽救生命的數量

3.7. 更多的資料和分析提高了人們對未來的預測能力

3.7.1. 但是數字技術的破壞性造成了不可預知的變化

3.8. 人工智慧將像電一樣改變世界。

3.8.1. 電力使得高效的火車、裝配線、圖書館照明、電話、電影工業、微波、計算機和電池驅動的火星漫遊者在崎嶇的地表上的探索任務成為可能

3.8.2. 今天,沒有人知道人工智慧這種跨界技術是否會產生類似的巨大影響

3.8.3. 可能思考AI產業將不會改變什麼比思考AI產業將會改變什麼更容易。

3.8.3.1. 史丹佛大學教授、谷歌和百度AI團隊的前負責人安德烈

4. 機器替代

4.1. 幾十年後,自動化投資的回報率才以更高的工資和更好的社會安全網的形式惠及子孫後代

4.2. 從長遠來看,對於機械問題我們已經找到了令人滿意的答案,那就是進步

4.3. 恩格斯停頓

4.4. 東大擁有開發和使用人工智慧的所有重要組成部分

4.4.1. 資本、廉價的計算能力,以及從米國的大學及初創企業湧回東大的智慧頭腦,而東大的大學也在培養越來越多的人才

4.4.2. 東大擁有的反饋資料就像沙烏地阿拉伯的石油儲備那麼豐富

4.4.3. 世界上大約一半的網際網路資料來自於人口數達14億的東大,由移動消費裝置從他們身上收集的資料對於人工智慧系統尤其有價值

4.4.4. 從純粹的經濟角度來看,東大有機會進一步加速成為經濟超級大國,從而帶領數百萬人擺脫貧困

4.5. 勞動力經濟學家

4.5.1. 他們計算出有大量的人類活動可以由人工智慧代替完成

4.5.2. 被第三次自動化浪潮淘汰的人只需要一點點善意及政府的再培訓計劃,就能迅速找到新的好工作

4.6. 人工智慧越快將觸角伸向人類工作場所,人們調整個人資質和集體安全系統的時間就越少

4.6.1. 新一代人類就可能在自動化面前敗下陣來

5. 機器的瑕疵

5.1. 就目前來說,人工智慧系統還不會奴役人類

5.1.1. 沒有人知道計算機在未來200年內能發展到什麼程度,但起碼我們知道,電腦科學家還不知道任何可能導致超級人工智慧的技術途徑

5.2. 人工智慧系統存在內在弱點,使得它們容易做出錯誤的決策,這限制了它們的使用

5.2.1. 人類有責任不斷批判性地看待它們的演算法

5.3. 人工智慧系統的弱點與人類的非常相似

5.3.1. 人工智慧系統的神經網路也會有偏見

5.3.1.1. 這些偏見不是由軟體開發人員編寫的,而是隱含在訓練資料中的

5.3.2. 我們人類知道要對種族主義提高警惕,並且可以加以糾正。但人工智慧系統不會這麼做

5.4. 自動化決策系統(ADM)的開發人員已經開始尋找解決機器偏見的技術方案

5.4.1. IBM在2018年9月釋出了一個開源工具包,用於檢查機器學習模型中的偏見

5.4.1.1. “人工智慧公平360”(AI Fairness 360)

5.5. 人們是否能夠接受人工智慧系統在很大程度上取決於人們對它們的信任,因此人工智慧系統不僅要做到公平公正,還要給與我們充分的理由去信任它們

5.5.1. AI系統內建一個申辯功能

5.6. 決策過程非常複雜,以至於機器無法向人類解釋或展示它是如何得出這個“可信”或“不可信”的結論的

5.6.1. 受“博蘭尼悖論”影響的不再是人類,而是機器,因為機器知道太多無法向人類解釋的東西

5.6.2. 即使人類注意到人工智慧系統犯了錯誤,也幾乎不可能對其進行糾正

5.6.2.1. 機器無法告訴人類錯誤來自哪裡,因為它自己也不知道

5.7. 我們必須批判性地審視機器所告訴我們的一切

5.7.1. 人工智慧演算法可以透過在社交媒體上精心安排帖子來左右人們的思維,從而顛覆我們的民主

5.8. 立法者,而不是jun人,應該考慮當機器自動開木倉時所觸發的所有倫理問題

5.9. 恐懼不應該遮蔽我們的雙眼,讓我們對人工智慧的好處視而不見

5.9.1. 決策自動化為社會的個人、組織和社群提供了巨大的機會

5.9.2. 隨著機器能做出越來越好的決策,我們人類就越來越需要集中精力思考:我們要把什麼樣的決策權委託給人工智慧

5.9.3. 即使在用人工智慧進行自動決策的時代,人類仍然希望決策能帶來幸福,但這對計算機來說沒有意義

5.9.3.1. 機器永遠感覺不到什麼是幸福

相關文章