為什麼說超人工智慧永遠是悖論,理論與現實不可逾越的鴻溝

發光的房子君發表於2019-07-05

自腦極體建立以來,我們一直努力避開人工智慧領域中比較“玄虛”的部分,儘量讓每一篇文字都足夠實際、落地、可讀,但是偶爾換換口味也未嘗不可對不對?


今天我們就來聊一個比較“玄”的話題:擁有自我意識和情感的超級人工智慧到底會不會出現?說實話,這個話題都爛大街了。科學家、科技大佬、各國政要們爭的頭破血流,我們也不可能知道答案。


但我們想說的,是什麼事都要講基本…不對,是什麼事都要講邏輯。有沒有一些理論或者猜想可以觸達AI覺醒這個話題呢?讓我們不要只能雲裡霧裡或者一腔熱血的想象未來?

巧合的是,確實有一些這樣的理論,比如說著名的“中文房間悖論”。這個情景猜想在大部分情況下都被用來否定“圖靈測試”。但它更深層的本意,其實是在闡釋人工智慧永遠不可能像人類那樣擁有自我意識。


什麼是“中文屋實驗”識。

所謂的中文屋實驗,是由美國哲學家約翰·希爾勒在1980年發表論文提出的一個思維試驗。

(這裡我們插句題外話,今年3月,84歲的約翰·希爾勒被爆出性侵華裔女助理事件。其本人目前已被加州大學停課,案件還在司法處理當中。雖然本文基於約翰·希爾勒提出的理論猜想,但在這裡還是要對此人表示發自肺腑的鄙視與厭惡)。


這個思維實驗是說,如果把一位只會說英語的人關在一個封閉的房間裡,他只能靠牆上的一個小洞傳遞紙條來與外界交流,而外面傳進來的紙條全部由中文寫成。

這個人帶著一本寫有中文翻譯程式的書,房間裡還有足夠的稿紙、鉛筆和櫥櫃。那麼利用中文翻譯程式,這個人就可以把傳進來的文字翻譯成英文,再利用程式把自己的回覆翻譯成中文傳出去。在這樣的情景裡,外面的人會認為屋裡的人完全通曉中文,但事實上這個人只會操作翻譯工具,對中文一竅不通。


當然了,這是個思維實驗,具體操作起來近乎不可能。但這個實驗裡蘊含的思想卻在表達這樣一個可能:機器所表現出的智慧(理解中文),很可能只是翻譯程式帶來的假象,其實它對真正的人類智慧一無所知。

這個實驗本來是為了反駁圖靈測試的,認為即使透過了圖靈測試,機器也不見得有了智慧。但或多或少有點牽強,始終也沒有把圖靈測試徹底反駁掉。但“中文屋悖論”卻可能在技術發展之路上告訴了我們另一件事:我們所有的技術探索與研究,可能都是在完善那個中英文翻譯程式,從來不是去教機器真的智慧。


通用人工智慧和強人工智慧的界限

這裡要來認識兩個大家經常聽到,但有可能混淆的概念——通用人工智慧與強人工智慧。

所謂通用人工智慧(Artificial General Intelligence,AGI),是指在不特別編碼知識與應用區域的情況下,應對多種甚至泛化問題的人工智慧技術。這個技術雖然冷門並遙遠,但其實也有不少學術機構與企業在做,一般被認為是人工智慧技術的未來發展方向。

而強人工智慧(Strong Artificial Intelligence)則是約翰·希爾勒在提出“中文屋實驗”時設定的人工智慧級別。這個等級的人工智慧,不僅要具備人類的某些能力,還要有知覺、有自我意識,可以獨立思考並解決問題。


雖然兩個概念似乎都對應著人工智慧解決問題的能力,但我們可以把前者想象為無所不能的計算機,後者則類似穿著鋼鐵俠戰甲的人類。


“中文屋悖論”表達的思想,是人類研究的方向根本無法逼近強人工智慧。即使能夠滿足人類各種需求的通用人工智慧,也與自我意識覺醒的強人工智慧之間不存在遞進關係。

現實中的技術發展好像也確實是這樣的。

在通用人工智慧領域,人類已經提出了一些設想與架構模型。其中最著名的應該是澳大利亞國立大學學者馬庫斯赫特(Marcus Hutter)在2000年提出的AIXI。這個計算模型據說可以涵蓋各種演算法與技術,逼近通用人工智慧的本質……當然,這個演算法的複雜程度奇高,根本無法執行,所以僅僅是個設想。

而OpenAI和DeepMind這樣的企業在近兩年則都開始了具體層面的AGI研究,其中DeepMind被認為是繼承AIXI的先鋒軍。

從DeepMind進行的通用人工智慧性質的研發與實驗中,我們可以看到其“通用性”主要集中在四個層面:

1智慧體應對複雜環境

2陌生環境處理

3時間變數應對

4多個資訊源同時處理任務

而這些技術都指向同一個方向,就是智慧體與外界的互動——也許可以理解為AI與這個世界的翻譯程式吧?


換言之,人類所做的僅僅是給“那個人”更好的翻譯程式,而非教他中文(當然也沒法教)。所以通用智慧這種已經很玄的東西,依舊與強人工智慧保持著清晰的界限。


絕望的強AI:能力和意識,也許南轅北轍

讓我們把“中文屋實驗”極限化一點,把整個房間放在一個人的大腦裡。

假如一個人記住了所有翻譯程式,看到任何中文他都能呼叫回憶,能寫出相應的回答,那麼他是不是就懂中文了呢?對於人類來說,可能他自然而然的就已經理解中文了。但對機器來說,即使這個過程速度再快、反應再靈敏,他也依舊沒有理解任何一個漢字。

確切的說,是這個人(智慧體),獲得的是使用中文的能力,但他對中文沒有意識。

能力與意識的區別,是我們在想象未來超級智慧時最容易混淆的問題。但從現實的邏輯推理,就會發現這二者差別很大,而且近乎沒有關聯。

知識表示、機器學習、NLP、智慧語音機器人等等人工智慧技術或者產品層出迭代,以智慧電話機器人為例,這些技術都只是在演算法能力上面解決電話機器人好不好用的問題,是在大資料基礎上面強化人工智慧模仿人類能力的能力,但讓人工智慧具備模仿人類意識的能力,直到現在依舊是一片空白。


沒有因,自然無果。“中文房間”理論講述的,就是按照人類遵循的技術軌跡,智慧體崛起意識這個命題將永遠缺乏基礎條件。如果這個結論成立,那麼對於強人工智慧來說可謂是非常絕望的。好在是科技是不斷進步的,這些理論在一些猜想中漸漸失去了“玄”的色彩。相信不就未來,它只能沉睡在人類錯誤的理論裡面稱為踏腳石。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69925861/viewspace-2649689/,如需轉載,請註明出處,否則將追究法律責任。

相關文章