為什麼說超人工智慧永遠是悖論,理論與現實不可逾越的鴻溝
自腦極體建立以來,我們一直努力避開人工智慧領域中比較“玄虛”的部分,儘量讓每一篇文字都足夠實際、落地、可讀,但是偶爾換換口味也未嘗不可對不對?
今天我們就來聊一個比較“玄”的話題:擁有自我意識和情感的超級人工智慧到底會不會出現?說實話,這個話題都爛大街了。科學家、科技大佬、各國政要們爭的頭破血流,我們也不可能知道答案。
但我們想說的,是什麼事都要講基本…不對,是什麼事都要講邏輯。有沒有一些理論或者猜想可以觸達AI覺醒這個話題呢?讓我們不要只能雲裡霧裡或者一腔熱血的想象未來?
巧合的是,確實有一些這樣的理論,比如說著名的“中文房間悖論”。這個情景猜想在大部分情況下都被用來否定“圖靈測試”。但它更深層的本意,其實是在闡釋人工智慧永遠不可能像人類那樣擁有自我意識。
什麼是“中文屋實驗”識。
所謂的中文屋實驗,是由美國哲學家約翰·希爾勒在1980年發表論文提出的一個思維試驗。
(這裡我們插句題外話,今年3月,84歲的約翰·希爾勒被爆出性侵華裔女助理事件。其本人目前已被加州大學停課,案件還在司法處理當中。雖然本文基於約翰·希爾勒提出的理論猜想,但在這裡還是要對此人表示發自肺腑的鄙視與厭惡)。
這個思維實驗是說,如果把一位只會說英語的人關在一個封閉的房間裡,他只能靠牆上的一個小洞傳遞紙條來與外界交流,而外面傳進來的紙條全部由中文寫成。
這個人帶著一本寫有中文翻譯程式的書,房間裡還有足夠的稿紙、鉛筆和櫥櫃。那麼利用中文翻譯程式,這個人就可以把傳進來的文字翻譯成英文,再利用程式把自己的回覆翻譯成中文傳出去。在這樣的情景裡,外面的人會認為屋裡的人完全通曉中文,但事實上這個人只會操作翻譯工具,對中文一竅不通。
當然了,這是個思維實驗,具體操作起來近乎不可能。但這個實驗裡蘊含的思想卻在表達這樣一個可能:機器所表現出的智慧(理解中文),很可能只是翻譯程式帶來的假象,其實它對真正的人類智慧一無所知。
這個實驗本來是為了反駁圖靈測試的,認為即使透過了圖靈測試,機器也不見得有了智慧。但或多或少有點牽強,始終也沒有把圖靈測試徹底反駁掉。但“中文屋悖論”卻可能在技術發展之路上告訴了我們另一件事:我們所有的技術探索與研究,可能都是在完善那個中英文翻譯程式,從來不是去教機器真的智慧。
通用人工智慧和強人工智慧的界限
這裡要來認識兩個大家經常聽到,但有可能混淆的概念——通用人工智慧與強人工智慧。
所謂通用人工智慧(Artificial General Intelligence,AGI),是指在不特別編碼知識與應用區域的情況下,應對多種甚至泛化問題的人工智慧技術。這個技術雖然冷門並遙遠,但其實也有不少學術機構與企業在做,一般被認為是人工智慧技術的未來發展方向。
而強人工智慧(Strong Artificial Intelligence)則是約翰·希爾勒在提出“中文屋實驗”時設定的人工智慧級別。這個等級的人工智慧,不僅要具備人類的某些能力,還要有知覺、有自我意識,可以獨立思考並解決問題。
雖然兩個概念似乎都對應著人工智慧解決問題的能力,但我們可以把前者想象為無所不能的計算機,後者則類似穿著鋼鐵俠戰甲的人類。
“中文屋悖論”表達的思想,是人類研究的方向根本無法逼近強人工智慧。即使能夠滿足人類各種需求的通用人工智慧,也與自我意識覺醒的強人工智慧之間不存在遞進關係。
現實中的技術發展好像也確實是這樣的。
在通用人工智慧領域,人類已經提出了一些設想與架構模型。其中最著名的應該是澳大利亞國立大學學者馬庫斯赫特(Marcus Hutter)在2000年提出的AIXI。這個計算模型據說可以涵蓋各種演算法與技術,逼近通用人工智慧的本質……當然,這個演算法的複雜程度奇高,根本無法執行,所以僅僅是個設想。
而OpenAI和DeepMind這樣的企業在近兩年則都開始了具體層面的AGI研究,其中DeepMind被認為是繼承AIXI的先鋒軍。
從DeepMind進行的通用人工智慧性質的研發與實驗中,我們可以看到其“通用性”主要集中在四個層面:
1智慧體應對複雜環境
2陌生環境處理
3時間變數應對
4多個資訊源同時處理任務
而這些技術都指向同一個方向,就是智慧體與外界的互動——也許可以理解為AI與這個世界的翻譯程式吧?
換言之,人類所做的僅僅是給“那個人”更好的翻譯程式,而非教他中文(當然也沒法教)。所以通用智慧這種已經很玄的東西,依舊與強人工智慧保持著清晰的界限。
絕望的強AI:能力和意識,也許南轅北轍
讓我們把“中文屋實驗”極限化一點,把整個房間放在一個人的大腦裡。
假如一個人記住了所有翻譯程式,看到任何中文他都能呼叫回憶,能寫出相應的回答,那麼他是不是就懂中文了呢?對於人類來說,可能他自然而然的就已經理解中文了。但對機器來說,即使這個過程速度再快、反應再靈敏,他也依舊沒有理解任何一個漢字。
確切的說,是這個人(智慧體),獲得的是使用中文的能力,但他對中文沒有意識。
能力與意識的區別,是我們在想象未來超級智慧時最容易混淆的問題。但從現實的邏輯推理,就會發現這二者差別很大,而且近乎沒有關聯。
知識表示、機器學習、NLP、智慧語音機器人等等人工智慧技術或者產品層出迭代,以智慧電話機器人為例,這些技術都只是在演算法能力上面解決電話機器人好不好用的問題,是在大資料基礎上面強化人工智慧模仿人類能力的能力,但讓人工智慧具備模仿人類意識的能力,直到現在依舊是一片空白。
沒有因,自然無果。“中文房間”理論講述的,就是按照人類遵循的技術軌跡,智慧體崛起意識這個命題將永遠缺乏基礎條件。如果這個結論成立,那麼對於強人工智慧來說可謂是非常絕望的。好在是科技是不斷進步的,這些理論在一些猜想中漸漸失去了“玄”的色彩。相信不就未來,它只能沉睡在人類錯誤的理論裡面稱為踏腳石。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69925861/viewspace-2649689/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- “鎖”,程式設計師不可逾越的鴻溝程式設計師
- 李理:為什麼說人工智慧可以實現?人工智慧
- 為什麼說ad hoc的模型缺乏理論基礎模型
- 強填EM演算法在理論與工程之間的鴻溝(上)演算法
- React的併發悖論React
- 為什麼說“納什均衡”改變了經濟學基礎理論
- 為什麼說TOGAF是企業體系結構的方法論? - proicttrainingAI
- 2021-2-20:請你說說分散式系統 BASE 理論是什麼?分散式
- 對“芝諾悖論”的思考
- 專案計劃與日程表的悖論
- 理論與現實,人工智慧“活著”比你想象要困難人工智慧
- 跨越可觀測性鴻溝|高手們都在用的“火焰圖”是什麼
- 從資訊理論角度論證為什麼漢語是世界上最先進的語言:引用多項實驗資料
- 談理論與實踐
- 圍棋,Marvin Minsky與人工智慧尚未跨越的鴻溝人工智慧
- Java 理論與實踐: 關於異常的爭論Java
- 羅素悖論 型別系統與程式語言型別
- 5分鐘讓您明白TRIZ理論原理是什麼
- Ivar Jacobson:我們為什麼需要軟體工程理論軟體工程
- 我為什麼不相信技術奇點理論?
- 什麼是框架?為什麼說 Angular 是框架?框架Angular
- R-Drop論文復現與理論講解
- 為什麼RPG遊戲永遠不會過時?遊戲
- 為什麼你應該永遠不要再使用MongoDBMongoDB
- 樹迴歸|理論與演算法實現演算法
- https理論與實踐HTTP
- 產品經理溝通基礎方法論
- 為什麼說 TCP 是安全的TCP
- 悲催的程式設計師悖論程式設計師
- 開發人員的測試悖論
- 為什麼專案開發永遠缺乏合理的時間?
- AI是如何彌補技術鴻溝的?AI
- 從執行緒池理論聊聊為什麼要看原始碼執行緒原始碼
- js正則理論與實踐JS
- 理解RESTful:理論與最佳實踐REST
- Code Review理論與實戰 (轉)View
- 為什麼說Spark SQL遠遠超越了MPP SQLSparkSQL
- 自動化測試經驗的悖論