計算機器與智慧

路途中的人2012發表於2016-03-12
【寫在前面】本文是 A.M.Turing在  1950年創作,詳細定義並解釋了人工智慧及其研究目的,發展方向,並駁斥了此前科學界及社會上普遍存在的反對觀點,講解通俗易懂,細緻入微,有理有據,被稱為人工智慧科學的開山之作,直到現在仍有極重要的意義,幾乎所有的人工智慧教材都向讀者強力推薦此文,讀罷真的會讓人切實感到,圖靈不愧為計算機天才。
1.模仿遊戲
我 建議考慮這樣一個問題:“機器能夠思考麼?”。要回答這個問題,我們需要先給出”機器”和”思考”的定義。我們可以用盡可能接近它們普通用法的方式定義這 些詞語。但是這種方式是危險的。如果使用這種方式,我們很可能會用蓋勒普調查那樣的統計方式來得出”機器能夠思考麼”這個問題的結論及其意義。顯然,這是 荒謬的。因此,我沒有嘗試給出一個定義,而是提出了另外一個問題。這個問題和原問題緊密相關,而且透過並不含糊的詞語給出。
這 個新的問題可以透過一個遊戲來描述,不妨稱之為”模仿遊戲”。需要三個人來玩這個遊戲。一個男人(A),一個女人(B)和一個詢問人(C)男女皆可。詢問 人呆在一個與另外兩人隔離的屋子裡。遊戲的目標是詢問人判斷出外面的人哪個是男人,哪個是女人。詢問人用標籤 X,Y代表外面的兩個人,遊戲結束時,他要說出”X是   A,Y是  B”或者”X是  B,Y是  A”。詢問人 C允許向  A和  B提出下面這樣的問題:
C:  X,請告訴我你頭髮的長度。
現在假如 X實際是  A,那麼 A必須回答。A在遊戲中的目標是努力使   C做出錯誤的判斷。他的回答可以是:
我的頭髮烏黑髮亮,最長的一縷大概九英寸長。
為 了排除聲音幫助詢問者得出結論,問題的答案可以寫出來,打出來更好。理想的安排是使得兩個屋子又遠端列印通訊。也可以透過中間人傳遞答案。而  B在這個遊戲中的任務是努力幫助詢問者獲得正確的答案。她的最優策略可能就是給出正確答案。她可以在她的答案中加入”我是女的,別聽他的。”這樣的詞 語。但是男人 A同樣也能做出相似的評論。所以這並不能提供更多的幫助。
現在我們提出這樣一個問題,”如果用一個機器擔當 A的角色”,將會發生什麼情況?同與兩個人玩這個遊戲相比,詢問者判斷錯誤的頻率是否發生變化?
這個問題取代了原先的”機器能夠思考麼? ”這個問題。
2.對新問題的評析
你可能會問:”新問題的答案是什麼?”。同樣也可能問:”這個新問題真的有研究價值麼?”我們先解決第二個問題,因此不會進入一個無限的迴圈。
這個新問題的優勢在於它把一個人的體力和智力完全區分開來。沒有任何工程師或化學家 宣稱能夠生產出和人的皮膚完全相同的物質。在未來的某天,這可能成為現實。但是儘管這樣的發明是可能的,賦予一個”思維機器”人的皮膚對於讓它更像人並不 能提供更大的幫助。我們設定問題的方式考慮到了這個問題。因為我們讓詢問者無法看到,接觸到或聽到其它的遊戲者。新的評判標準的其它優勢在下面的樣例問題 和回答中顯示了出來。
問:請寫一首以  Forth Brige  (譯註:1890建成於英國,開現代橋樑建造的先河)為主題的詩。
A:我無能為力,我從來都不能寫詩。
問:  34957加    70764等於多少?
A:(停了三十秒鐘後給出答案) 105621。
問:你玩象棋麼?
A:玩。
問:我的王在 K1,沒有別的棋子了,你只有王在 K6,車在R1。該你走,你走哪步?
答:(十五秒鐘的停頓後)車移動到R8,將軍。
這種問答形式幾乎適用於我們想要包括的人類行為的一切形式。我們不希望因為一個機器不能在選美比賽中勝出就認為它無能;正如我們不能因為一個人不能在和飛機賽跑的比賽中勝出就認為他無能一樣。我們的遊戲設定讓這些無能變得無關緊要。只要參與者認為合適,他們可以吹牛。可以把自己描述成魅力無限,強壯無比,英勇無畏。而詢問人無法要求他們做實際的展示。
對這個遊戲的批評可能是:機器在遊戲的成敗中佔有了過多的比重。如果一個人試圖假裝成一個機器的話,他肯定是一個蹩腳的演員。他會由於算術方面的緩慢和不準確立即暴露。機器會不會解決了一些應該是思考的問題,其解決方式卻和人的方式相差甚遠?這個反對意見確實很棘手。但是,至少我們可以說,儘管如此,機器可以被設計得可以很好的玩這個模仿者遊戲。我們不需要對這個問題過分擔心。
有一種情況是機器在玩模仿者遊戲時的最佳策略是做別的事而不是模仿人的行為。這種情況是可能的。但是我認為這樣的情況並沒有付出多大的努力。不管怎樣,本文並不試圖研究這個遊戲的理論。我們假定機器的最優策略是努力提供和人一樣的答案。
3.遊戲中的機器
在 1中提出的問題只有當我們確定”機器”這個詞的意義的時候才是確定的。自然,我們希望一切工程科技都允許使用在我們的機器上。我們同樣希望有這樣一個可能:一個或一組工程師製造出一個可以工作,但是其工作方式卻不能被它的建造者很好的描述,因為他們使用了一個基於試驗的方法來設計它。最後,我們希望把透過生育誕生的人從”機器”的概念中排除出去。要讓定義同時滿足這三個要求是困難的。例如,你可能會要求這些工程師都是同一個性別,但是這實際上也是無法滿足要求。因為透過單個人的一個皮膚細胞產生一個完整的個體不是完全不可能的。這將是生物科技的具有劃時代意義的突破。但是我們並不希望把它成為“建造了一個思維機器”。這就要求我們放棄允許一切的科技的打算。我們更願意這樣,因為目前“思維機器”的研究熱點集中在一種特殊的,通常被稱為“電子計算機”或“數字計算機”的機器上。因此,我們僅僅允許“數字計算機”參加我們的遊戲。
第一眼看上去,這個限制過於嚴格。事實上並非如此。首先我們需要簡要的瞭解一下這些計算機及其它們的一些性質。
你可能會說:萬一數字計算機不能如我所願,即不能在遊戲中有所表現,把機器完全用數字計算機代替就只能令人失望,會像我們為”思考”定的評判標準一樣。
目前已經有許多數字計算機在工作,人們可能要問:“為什麼不拿一臺直接作實驗?很容易就能滿足遊戲的要求。同時用許多的詢問者參加遊戲,然後統計出判斷正確的機率”。對這個問題的簡要回答就是:我們並不是要問是不是所有的數字計算機都能在遊戲中表現良好,也不是要問現在的計算機中有沒有機器能夠透過實驗。而是要問:是否存在一臺想象中的機器能夠透過遊戲。這僅僅是一個簡要回答,後面將從另一個角度考慮這個問題。
4.數字計算機
數字計算機可以被解釋成可以執行一切計算人員能夠進行的操作。一個計算人員應該嚴格遵守規則;在一切細節上,都沒有一絲偏離的權力。我們可以假設這些規則寫在一本書上。每次被分配新的任務的時候,將會改變執行步驟。他有無限的紙進行計算,他可以用“算盤”進行乘法和加法運算,這並不重要。
如果使用上述解釋定義數字計算機,我們可能陷入迴圈定義。為防止這種情況發生,我們列出期望結果得出的方式。一個數字計算機通常由一下三個部分組成。
(i)存貯器(ii)執行單元(iii)控制器
儲存器用來存貯資訊,對應於計算員的紙。紙上既記錄了他的計算過程,也記錄了他所遵循的計算步驟。同樣,如果計算員進行心算的話,一部分儲存器將對應於他的記憶。
執行單元是一次計算中單個操作進行的場所。操作物件隨著機器的不同而不同。通常一個相當長的操作可能是:“3540675445乘以 7076345687”,但是一些機器可能僅能夠執行“寫下 0”一類的簡單操作。
上面曾經提到計算員的“記錄操作步驟的書”由機器中的一部分儲存器代替。不妨把它們稱為“指令列表”。控制器的職能就是保證這些指令按照正確的順序得到正確的執行。控制器的設計使得這成為可能。
儲存器上的資訊通常被分為許多的小包存放。例如,在一個機器中,一個包由十個十進位制陣列成。每個儲存資訊的包都以某種系統的方式分配了數字。一個典型的指令可以是:“把存放在  6890的數加上存放在  4302的數相加並把結果存入後一個儲存位置。”
顯然,機器中的指令不會用英語標示。這個指令更有可能用 6809430217這樣的形式來表示。這裡,17指定在可以對這兩個數進行的所有操作中的哪個被執行。這裡的操作如上所示是“進行加法操作。。。”請注意,這裡的指令共佔用了 10個數字因此正好可以放在一個儲存空間中,非常方便。控制器保證指令按照它們的儲存順序被執行,但是偶爾可能碰到下面的指令:
“現在執行儲存在  5606的指令,並從那裡繼續執行。”
或者是:
“如果 4505位置是  0,那麼執行儲存在   6707的指令,否則繼續”。
後面這種指令非常重要,因為它使得我們能夠反覆執行一段指令直到滿足一些條件。要達到這個目的,在每次執行時不要改變指令,而是一遍一遍的執行相同的指令。可以用家庭生活情況做一個類比:如果媽媽想讓湯姆每天上學時都到修鞋匠那裡看看她的鞋是不是修好了。媽媽可以每天都告訴他一遍。另一種方式是,在一個湯姆每天上學都能看到的地方貼各個便條告訴他到鞋匠那裡去看一下,當湯姆拿回他的鞋的時候,撕掉那個便條。
讀者必須接受計算機可以而且事實上正是按照我們所提出的原則建造的。這些計算機幾乎能夠完全模仿一個計算員。
上面我們提到的計算員要遵守的寫在書上的步驟實際上僅僅是一個設想。一個實際的計算員總是能夠記得他們需要做什麼。如果一個人想讓機器模仿計算員執行復雜的操作,他必須告訴計算機要做什麼,並把結果翻譯成某種形式的指令表。這種構造指令表的行為通常被稱為”程式設計”。”給一個機器程式設計使之執行操作 A”意味著把合適的指令表放入機器以使它能夠執行 A。
一個數字計算機的一個有趣變化是讓其成為“帶有隨機元素的數字計算機”它們有特定的指令進行擲色子或者別的等價電子過程。例如其中一個是“擲色子並把結果存入 1000。”有些時候這樣的機器被描述為具有自由意志。(儘管我自己並不使用這個表述)通常並不能透過觀察判斷出一個機器有沒有隨機元素。因為一個相似的效果可以透過依據 Pi的小數部分進行選擇來產生。
絕大多數的數字計算機具有有限的儲存空間。讓一個計算機獲得無限的儲存空間並不存在理論困難。當然,在任何時候都只有有限的不分被使用。同樣,只有有限的儲存空間被建造。不過我們可以想象越來越多的儲存空間可以根據要求新增。這樣的計算機具有特殊的理論價值,將被稱為無限容量計算機。
有關計算機設想的很早就產生了。1828至  1839年擔任劍橋大學的  Lucasian數學教授的Charles  Babbage(查爾斯.巴貝奇)設想了這樣的機器,並稱之為分析機。但是並沒有完成它。儘管 Babbage有了所有的關鍵思想,他的機器在那個時代卻沒有吸引人的前景。它能夠達到的運算速度肯定比一個計算員要快但是僅相當於曼徹斯特機的百分之一,而曼徹斯圖機也是現代計算機中相當慢的一個。分析機的儲存全部由用輪子和卡片組成的機械實現。
事實上,全部由機械實現的 Babbage分析機幫助我們破除了一個迷信。通常我們對現代計算機是電子的這個事實給予相當的重視。同樣,神經系統也是基於電的。因為Babbage的機器是沒有使用電,而所以的數字計算機在某種意義上都是等價的。我們就會明白使用是否使用電理論上並不重要性。當然,當需要高的運算速度的時候,需要使用電氣結構。因此,我們就會發現在這些地方使用電是理所當然的。在神經系統中,化學過程至少和電過程同樣重要。某些計算機的儲存器主要基於聲學原理。計算機和神經系統都使用電僅僅是表面的相似。如果我們希望尋找這樣的相似,倒不如對函式進行數學分析。
5.數字計算機的通用性
上一部分給出的數字計算機可以被歸類為“離散狀態機”。這類機器可以從一個確定狀態向另一個狀態突然跳變。為了不會有混淆這些狀態的可能,它們之間要有足夠的差別。嚴格的說,這樣的機器是不存在的。一切事件實際上都是連續的。但是有許多種機器能夠被看作離散狀態機器。例如在照明系統中的開關,我們可以把開關看成只有開和關兩個狀態。它們之間肯定有轉換過程,但是在絕大多數情況下可以忽略它們。作為離散狀態機器的例子,我們可以考慮一個每秒嘀嗒 120度的輪子,這個輪子可能因一個槓桿的阻擋而停下來,在輪子上有一個發光的燈。這個機器可以被抽象的描述為下面的形式。機器的內部狀態 (透過輪子的位置來描述)可以是 q1,q2和   q3。輸入訊號是 i0或   i1(槓桿的位置)。任何時候的內部狀態可以根據上一次狀態和輸入訊號由下表描述:
輸出訊號可以用下表描述,它是唯一能夠被外部觀測的內部狀態指示器。
這個例子是一個理想的離散狀態機。只要它們的狀態是有限的,它們就可以用這樣的表格描述。
可以看出,只要給出初始狀態和輸入訊號,所有的未來狀態都是可以預測的。這讓我們想起了拉格朗日的觀點。那就是,只要給出宇宙中任意時刻所有粒子的位置和速度,就能夠預知未來的所有狀態。我們考慮的預測和拉格朗日相比較更接近於實用性。因為“宇宙是一個整體”的系統,所以只要初始條件的一個很小的誤差,就會引起系統在一段時間以後變得完全不同。某個時刻一個電子位置的億萬分之一釐米的偏移,將決定一個人會在雪崩中死去還是逃生。我們稱為“離散狀態機”的機械系統的一個核心性質就是,這樣的現象並會發生。即使是考慮一個實際的物理系統,而不是理想機器,只要知道了某個時刻足夠精確的狀態資訊,就可以足夠精確的預測未來的一切狀態。
正如我們所提到的,數字計算機屬於離散狀態機。但是這樣的機器所能夠達到的狀態通常是相當大的。例如,現在在曼徹斯特工作的機器可以有    2^165000個狀態,也就是大約10^50000。而在上面的嘀嗒輪的例子中,僅有三個狀態。找到有如此多狀態的原因並不困難。計算機具有一個儲存器,對應於計算員的紙。這些儲存器中應該能夠寫入任何能夠寫入計算員所用紙上的符號。為了簡單起見,假設僅僅實用從 0到  9的數字作為符號。忽略手寫體的差別。假如計算機具有 100張每張  50行,每行  30個數字的儲存空間。那麼狀態的數目就會是  10^(100*50*30)即  10^150000。這大約是三個曼徹斯特機狀態的總和。狀態數的基為    2的對數通常被稱為機器的“儲存大小”。因此曼徹斯特機的儲存大小是 165000而上面例子中輪子的儲存大小是 1.6。如果兩個機器加在一起,他們的儲存大小應該是原來儲存大小的和。因此我們可以說”曼徹斯特機具有 64個磁帶儲存器每個儲存器的大小是  2560,還有 8個電子管,每個容量為 1280。各種各樣儲存器加在一起大約是 300個,總共  174380。
只要給出對應於離散狀態機器的表格,就能夠預測出機器將會做什麼。這樣的計算當然能夠透過電子計算機進行。只要執行的足夠快,電子計算機就能夠模擬任何離散狀態機的行為。這樣,模範者遊戲就變成機器作被問者(B),善於模擬的計算機作  A,那麼詢問者就不能區分它們。當然,數字計算機必須有足夠的儲存空間,執行的足夠快。而且它在模範不同的機器之前必須被重新程式設計。
數字計算機可以模擬任意離散狀態機器的性質被表述為“他們是通用機器”。具有這樣性質機器的存在帶來的一個重要結果就是,不考慮速度,我們並不需要設計出不同的新機器來執行不同的問題。它們都可以用一個數字計算機來實現,只要根據沒種情況進行適當的程式設計。可以看出,這表明所有的數字計算機在某種意義上是相互等價的。
現在重新考慮在第三部分末尾提出的問題。暫時把問題“機器能夠思考麼?”用“是否存在假想中的機器能夠在模範遊戲中表現良好”代替。如果我們願意,我們還可以問“是否存在能夠表現良好的離散狀態機”,但是由於通用性,我們可以看出這兩個問題都等價於“讓我們把注意力集中在一個數字計算機 C上。如果我們可以讓它具有足夠大的儲存空間,足夠快的計算速度,而且對它進行適當的程式設計。C扮演模仿遊戲中  A的角色,人扮演   B的角色,C能不能在這個遊戲中表現良好?”
6.主要問題的對立觀點
現在,我們認為基礎已經打好,並準備就“機器能否思維?”這個問題繼續進行辯論……我們不能全盤摒棄最初的那個問題形式,因為在考慮代換是否恰當這個問題時,會有不同的意見,因此,我們至少必須考慮這方面必須說些什麼。
我想要是我先就這個問題闡述一個自己的看法,那麼,讀者就會覺得問題會更簡單一點。
首先讓我們來看看這個問題的更確切的形式。我認為在 50年的時間裡,計算機的資訊儲存量可達到大約 10^9,這樣的話,計算機在模擬遊戲中就會很順利,一般的提問者在  5分鐘提問後,能準確鑑別的機率不會高於  70%。原來那個“機器能夠思維嗎?”的問題我認為沒有什麼意義,不值得討論。然而,我認為本世紀末,由於詞彙用法會有較大的變化,普遍的學術見解也會改變,那時候人們又能重新談思維機器而不會自相矛盾。我還認為,如果掩蓋這些看法,決不會帶來任何益處。人們普遍認為,科學家進行科學研究工作,總是從可靠的事實到可靠的事實,從來不受任何未經驗證的假設的影響。這種看法實際上是錯的。假如能清楚地劃分哪些是經過證實的事實,而哪些又是未經驗證的假設,那也沒有什麼害處。假設往往是非常重要的,因為它們為研究暗示了有益的研究方向。
我現在談談與我的看法相對立的觀點。
(1)來自神學的反對意見。思維是人的不朽靈魂的一種功能。上帝賦予每一個男人和女人以一顆不朽的靈魂,但從未將它賦予任何其他的動物或機器。因此,動物或者機器不能思維。
儘管我不能接受這種看法,但我試圖用神學的語言來回答這個問題。如果將動物和人劃為一個類別,我認為這個觀點更有說服力;因為,在我看來,生物與非生物之間的差別遠遠要比人和其他動物之間的差別大得多。如果這種正統的觀點出現在其他宗教社會里,它的主觀武斷性就更加明顯了。伊斯蘭教認為婦女沒有靈魂,基督教對此有何感想?但是,現在暫不管這一點,讓我們回到問題的焦點上來。在我看來,上面所引的論點對上帝威力的萬能性有很大的限制。上帝對有些事情也是無能為力,比如,無疑他不能讓1等於2;但是,我們難道不應該相信,要是上帝覺得合適,他完全可以賦予一頭大象以靈魂嗎?我們可以希望,上帝可以透過自己的威力造成變種,由於變種,大象有了一個較發達的大腦,可以用來滿足靈魂的需求。同一形式的論點也可以用來解釋機器。只是看上去也許有點不一樣,因為“輕信”就不那麼容易了。但這其實只能說明,我們認為上帝不太可能覺得這些環境適合於授予靈魂。關於環境問題我們將在本文的其餘部分進行討論。在企圖製造這樣的機器時,我們不應該無禮地篡奪上帝創造靈魂的權力,就像不應該剝奪我們生兒育女的權力那樣;在兩種情況下,我們其實都是上帝意志的工具,為他所創造的靈魂提供住所。
然而,這僅僅是猜想而已。不管能用神學的論據來證明什麼,我仍不以為然。過去已經證明這樣的論據是漏洞百出的。在伽利略的時代,就有人提出,“太陽一動不動地懸著……整天都不慌不忙,不想落下”(《約書亞書》,10。13)以及“他為大地奠定基礎,叫它永遠不動搖”(《詩篇》,105。5)這些經文正好用來駁斥哥白尼的理論。從我們今天的知識來看,就覺得提出這種論據是徒勞的。過去沒有這樣的知識,情況便大不一樣了。
(2)所謂”鴕鳥政策”式的異議。”機器思維後果太令人恐懼了。但願機器永遠不會有思維。”
這種觀點不如上面的說法那樣直言不諱。但它對我們許多人都有影響。我們都傾向於認為人類的某個微妙的方面比其他生物要優越。要是能證明人一定是高一等的,那再好不過了,因為那樣的話,他高居一切之上的地位就不會有危險了。神學的論點那樣流行,很明顯是與這種情緒密切有關。這種看法在知識分子中會更普遍,因為他們比其他人更尊重思維能力,因此也就對人類思維能力的優越性更加深信不疑。
我認為這個論點不怎麼重要,不值得一駁。安慰一下也許更合乎情理;這種安慰也許能在靈魂輪迴說中找到。
(3)來自數學的異議。在數學邏輯裡有一些結論,可以用來證明離散狀態的機器的能力有一定限度。這些結論中最著名的是哥德爾定理,此定理聲稱,在任何一個足夠有力的邏輯系統裡,都能形成陳述,而所作陳述在本系統範圍之內既不能被證明是對的,也不能被證明是錯的,除非這個系統本身就不一致。丘奇、克利恩、羅瑟和圖林等人也有別的在某些方面同哥德爾定理很相似的結論。圖林的結論更容易考慮,因為它直接涉及機器,而其他人的結論相對來說是間接的:比方說,如要使用哥德爾定理,我們還需要某些附加手段,透過機器來描述邏輯系統,而要描述機器還需要再透過邏輯系統。這個結論涉及一種機器,它實質上是一臺萬能的數字計算機。即使是這樣一臺機器,它對有些事情也是無能為力的。如果計算機被設計成能在模似遊戲中回答問題的話,那麼對有些問題它是無法給予正確答覆的,而對另一些問題,不管你給它多長時間,它也答不上來。當然,儘管這臺機器回答不了許多問題,但另一臺機器卻能給予滿意的解答。我們現在只假定,對這些問題只要回答“是”或者“不是”就行了,不會出現像“你認為畢加索怎麼樣?”這類的問題。我們知道機器必定無法回答的問題是下述這類問題:”這臺機器有以下特點……這臺機器會不會對任何問題作出‘是’的回答?”這裡省略的是對某臺標準形式機器的的描述……如果所描述的機器與那臺被提問的機器具有某些相對簡單的聯絡,那麼,我們就能知道,答案不是錯了,就是壓根兒沒有答案。這就是數學的結論,此結論認定機器能力有限,而人類智慧則沒有這種侷限性。
如果想對這個論點作一簡要的答覆,我們就能指出,儘管它已經證明任何一臺特定的機器都是能力有限的,但它並沒有任何證據說,人類智慧就沒有這種侷限性。但我認為這個論點不能就這麼輕易了結。每當其中一臺機器遇到一個合適的問題,並作出我們明知是錯的回答時,我們無疑會產生一種優越感。這種優越感難道不會是錯覺嗎?這種感覺無疑是真實的,但我覺得這並沒有多大意義。我們自己平時也經常對問題作出錯誤的回答,因此,就沒有權利因機器犯了錯誤而沾沾自喜;當然,我們對付一臺機器當然易如反掌,但我們無法同時對付所有的機器而且不出差錯。一句話,有可能人比一臺特定的機器聰明,但也有可能別的機器更聰明,如此等等。
我認為,那些持數學異議的人大多數願意接受模似遊戲作為討論的基點。而持前兩種反對意見的人不大會對什麼標準問題感興趣。
(4)來自意識的論點。這個論點在斐遜教授 1949年的李斯德演說中闡述得很明確,我摘引了其中的一段話:“若要我們承認機器與大腦是一樣的,除非機器能夠因為感受了思想與感情,而不是符號的偶然塗抹寫出十四行詩或協奏曲來。也就是說,它不僅寫了,而且也應知道自己確實這樣做了。任何機器都感覺不到(不只是屬於簡易發明之類的人工訊號)成功的喜悅,也不會因困難而沮喪,因受奉承而沾沾自喜,因犯錯誤而悶悶不樂,因見異性而神魂顛倒,也不會因慾望得不到滿足而暴跳如雷或一蹶不振。”
這個論點看上去否定了我們測試的有效性。按照這種觀點的最極端形式,你若要肯定一臺機器是否能思維,唯一的途徑就是成為那臺機器並且去感受自己的思維活動。這樣的話,他就能夠向眾人描述他自己的感覺,當然,沒有人會知道這些話是不是實話。同樣,依照這個觀點,要想知道某人是否在思維,唯一的途徑就是成為那個特定的人。這實際是唯我論的觀點。這也許是符合邏輯的,但若真是這樣,那思想交流就太困難了。A會說,“A在想,而B不在想”。而B會說,“B在想,而A不在想。”我們犯不著為這個觀點爭執不休,我們不如客客氣氣地認為大家都在想。
我肯定斐遜教授不願意採納這樣一個極端的唯我論的觀點。他倒有可能願意把這個模似遊戲當作一個測試。模擬遊戲(省略了遊戲者B)在實際中經常採用”口試”形式,來鑑定某人的真的理解了,還僅僅是“鸚鵡學舌”,讓我們看一看這種“口試”的情形:
提問者:你的十四行詩的第一行是這樣的,“我欲比君為夏日,如何?”要是將“夏日”改成“春日”,是不是也可以,或許會更好?
證人:這樣一改便不合韻了。
提問者:改為“冬日”怎麼樣?這樣也會合韻。[1]證人:是沒問題。但是有誰願意將自己比作冬日呢?
提問者:你認為匹克威克先生會使你聯想起聖誕節嗎?
證人:在一定程度上,會的。 提問者:但是聖誕節是在冬天,我認為匹克威克先生對這個比喻不會在意。
證人:我在想你也許在開玩笑。冬日的意思是指某一個典型的冬日,而不像聖誕節那樣特殊的一天。
這裡不再贅引。如果那臺寫十四行詩的機器在這場“口試”中能夠這樣對答,傑斐教授會作何感想呢?我不知道他是不是會認為,機器只是在“機械地透過發訊號”而作出這些答覆;但是,如果這些答覆如上面所引那樣令人滿意,前後一致,我認為他不會再把機器當作“一個屬於簡易發明之類的人工訊號”。所謂“屬於簡易發明的人工訊號”指的是一架機器的一些設計功能,可以用來播放一個人念十四行詩的錄音,只要撥動鍵鈕,你隨時都可以聽到這段錄音。
綜上所述,我認為大部分支援來自意識的異議的人都可以經過勸說而放棄原來的主張,不致於陷入唯我論的困境。這些人因此也就有可能願意接受我們的測試。
我並不想給大家留下這樣一個印象,即我認為意識並沒有什麼神秘之處。比方說。要想確定意識在人體中的位置,就是一個謎。但是,如果我們沒有解決這些謎,還是能夠回答這個與本文有關的問題的。
(5)來自種種能力限制的論證。這些論證一般是這樣一種說法:“我擔保,你可以使機器幹任何你剛才提到的事情,可你永遠也不能使一臺機器有X類的行為。”這類行為包括許多特徵。我在這裡援引一例:
要和藹、機靈、美麗、友好……富於首創精神、富於幽默感、善於明辨是非、會犯錯誤……會墜入情網,喜歡草莓和奶油……能使別人鍾情於它,通達世故……措詞得當,長於反思……像人一樣行為多姿多彩,富於創新……
說這些話一般都用不著證明。我認為這些話都是以科學歸納的原則為基礎的。一個人在他一生中看到過成百上千臺機器。他由所見所聞得出一些普遍的結論。它們形態醜陋,應用範圍狹窄,只要範圍略有變動,它們就束手無策。此外,它們的行為方式也非常單一,等等,等等。他很自然地認為,這就是機器大體上的必備特徵。大部分機器的能力限制與機器儲存量太小有關(我在設想,儲存量這個概念可以透過某種方式進行擴充,它不僅僅包括離散狀態的機器,也包括其他機器。因為目前討論還不需要講究數學的準確性,所以定義準確問題並不要緊)。數年前,由於數字計算機在社會上還鮮為人知,要是你光說其特徵而不提其構造,那麼,你們就會以為你在信口開河。我想這也是因為人們使用了科學歸納原則的結果。當然,人們在使用這個原則時,大都是無意識的。一個小孩一朝被火燙,十年怕燭臺,我認為他這就是在使用科學歸納(當然,我也可以用許多別的方式來解釋這一現象)。人類的行為和習慣看上去不適合運用科學歸納。如果你想獲得可信賴的結果,你就要對時空的大部分進行研究。要不然的話,我們會(就像許多說英語的兒童那樣)以為世界上所有的人都講英語,再去學法語真是傻透了。
然而,關於我們剛才提到的許多能力限制,還要特別說幾句,說機器沒有能力享受草莓和奶油,這種說法會使讀者覺得有點輕率。我們有可能使機器喜歡這些美味,但任何強迫這樣做的企圖都是愚蠢的。值得重視的是,這種能力限制對解釋其他能力限制也有影響。比如,難以使人與機器之間形成那種像白人與白人之間,或是黑人與黑人之間的友好情感。
認為“機器不會出差錯”這種想法有點令人費解。我們不禁要反問:“它們出了錯就更糟了嗎?”讓我們站在同情的立場上,看看這究竟是什麼意思。我想我們可以用模擬遊戲來解釋這種說法,有人聲稱,在遊戲中提問者可以向被試問幾道算術題來分辨是哪個機器,哪個是人,因為機器在回答算術題時總是絲毫不差。這種說法未免太輕率了。(帶模擬遊戲程式的)機器並沒有準備給算術題以正確的答案。它會故意算錯,以矇騙提問者。機器在做算術題時,由於對要出現什麼樣的錯誤作出了不妥當的決定,因而顯示了機械的故障。我們對這種觀點作這樣的理解,其實也不太富有同情心。但是,我們對這個問題限於篇幅不可能進一步討論。在我看來,這個觀點的根源在於混淆了兩個不同性質的錯誤。這兩個錯誤我們稱之為“功能錯誤”和“結論錯誤”。功能錯誤是由某些機械或電器故障引起的,這些故障導致機器不能夠按照指令工作。在進行哲學討論時,我們很容易忽視發生這種錯誤的可能性;這樣的話,我們實際上是在談論“抽象的機器”。而這些抽象的機器與其說是實在的物體倒不如說是數學的虛構。從定義上講,我們完全可以這麼說:“機器從不出差錯。”當某一意思與來自機器的輸出訊號聯在一起時,就會產生結論的錯誤。比方說,機器能夠自動打出數學方程或英語句子。當機器打出一個錯誤的命題時,我們就認為這臺機器犯了結論錯誤。很明顯,找不到絲毫理由說,機器從不犯這類錯誤。一臺機器有可能別的什麼也不能做,只會連續打出“0=1”。舉這樣一個例子也許太過分了,我們可以換一個例子:機器會想辦法透過科學歸納來得出結論。這種辦法有時無疑會導致錯誤的結果。
有人說,機器不能成為它自己思維的主體。如果我們能證明機器的某些思維是有某些主題的話,我們就能駁回這種說法。儘管如此,“機器活動的主題”確實有點意義,至少對於研究它的人來說是這樣的。比如,如果一臺機器試圖解 X2-40X-11=0這個方程式,我們不禁會認為,這時,這個方式本身就是機器主題的一部分。從這種意義上說,機器無疑能夠成為它自己的主題。這對編排它自己的程式,對預測因本身結構變化帶來的後果都會有所幫助。機器能夠透過觀察自己行為的結果,修改自己的程式,以便更有效地達到某種目的。這並不是烏托邦式的空想,而是不久的將來可能辦到的事。
有人批評說,機器的行為比較單一。這也就是說,機器不能夠有很大的儲存能力。直到最近,達到 1000位元組的儲存量都很罕見。
我們現在這裡考慮一些反對意見實際上是都是來自意識的那個異議的改頭換面。通常,如果我們堅持認為,一臺機器有能力做完其中的一件事,並對機器所能採用的方法進行描述。那麼,不會給別人多深印象。人們會認為機器所使用的方法(不管是什麼方法,總是機械性的)實在太低階了。請參見前面所引斐遜演講中括號內的話。
(6)洛夫萊斯夫人(譯註:愛達,第一個程式設計師)的異議。
洛夫萊斯夫人的回憶錄中曾對巴比奇的分析引擎作過詳盡的記述。她這樣寫道:“分析引擎沒有任何意圖要想創作什麼東西。它能做我們知道該怎樣去指揮它做的任何事。”(重點為她所知)哈特里引用了這段話,並補充道:“這並不是說,就不可能製造能‘獨立思考’的電子裝置,(用生物學的話說)在這種裝置裡,我們能夠引起可以用來作為‘學習’基礎的條件反射。從最近的一些發展情況看,這種設想從原則上說是不是有可能,已經引起人們的極大興趣和關注。但是,當時製造的那些機器並不具備這些特點。”
在這點上我完全同意哈特里的看法,我們會注意到,他並沒有斷言當時的機器還不具備這個特點,他倒是指出了,洛夫萊斯夫人所能獲得的證明還不足以使她相信這些機器已具備了這個特點。從某種意義上講,這些機器已具備了這個特點,這是極有可能的,因為,我們可以設想某些離散機器有這個特點。分析機實際上是一臺萬能數字計算機。因而,如果它的儲存能力和速度達到一定水準,我們就能透過適當的程式使它模仿我們討論的機器。也許伯爵夫人或巴貝奇都沒有想到這一點。無論怎麼說,他們不必能提什麼要求,便提什麼要求。
洛夫萊斯夫人的異議還有另外一種說法,即機器“永遠也不能創新”。這種說法可以用一句諺語“世上無新事”抵擋一陣。誰能保證,他的“獨創性成就”就不是接受教育的結果,就不是因循著名的普遍原則的結果?這種異議還有另一個稍稍好一點的說法,即機器永遠也不能“使我們驚奇”。這種說法有點直截了當,我能夠針鋒相對地加以反駁。機器經常令我吃驚。這主要是由於我對機器能做什麼估算甚少,更確切地說是由於即使我做了估算,也匆匆忙忙,馬馬虎虎。我也許這樣對自己說:“我認為此處的電壓應與彼處相同;不管怎麼樣,就當是一樣吧。”我自然經常出錯,結果我大吃一驚,因為一俟實驗完成,這些假設早被忘得一乾二淨了。我對自己的這些錯誤開誠佈公,但在我證實了所驚訝的事時,人們也不會認為我在信口開河。
我的回答並不會使批評者就此緘口沉默,他也許會這樣做,所謂大吃一驚都是因為我自己富於想象力的心理活動,與機器本身毫不相干。這樣,我們重又回到來自意識的那個論證上去,而背離了吃驚不吃驚的話題。我們不得不認為這種論證方式是封閉式的,但是,也許值得一提的是,要將某物認作會使人驚奇的,則需要許多“富於想象力的心理活動”,不管這件令人吃驚的事件是由一個人、一本書、一臺機器還是任何別的東西引起的。

我認為,那種認為機器不會令人吃驚的觀點是由這樣一個為哲學家和數學家特別容易犯的錯誤引起的。它是這樣一個假設,即心靈一接受了某個事實,由此事實所引起的一切後果都會同時湧入心靈。在許多情況下,這種假設十分有用,但是,人們會情不自禁地忘了這是個錯誤的假設。如果照這樣做的話,其必然結果就是認為,僅僅從資料和普遍原則得出結論會毫無效力可言。

(7)來自神經系統連續性的論證。眾所周知,神經系統不像離散狀態的機器。若是關於撞擊神經原的神經脈衝規模的資訊有誤,那麼關於外衝脈衝的規模的資訊就會有很大誤差。既然這樣,就可以論證:我們不可能用一個離散狀態系統去模仿神經系統的行為。

離散狀態機器同連續機器肯定不大一樣,這一點沒什麼問題。但是,如果我們嚴格遵循模擬遊戲的條件,提問者就不可能從這個差別得到任何有利之處。如果我們考察一下其他一些更簡單的連續機器,有些話就能夠說得更明白。一臺微分分析機就足以勝任了(微分分析機是一種用作非離散狀態計算的機器)。有些這樣的機器能打出答案來,所以可以參加模擬遊戲。一臺數字計算機不可能猜準微分分析機對一個問題究竟作何答覆,但是,它倒是有能力給出正確回答的。比如,如果你要它回答π的值是多少(實際上約等於  3.1416),它就會在 3.12,3.13,3.14,3.15,3.16之間作隨機選擇,其選擇機率依次分別為(比方說)0.05,0.15,0.55,0.19,0.06。這樣的話,提問者就很難分辨哪個是微分分析機,哪個是數字計算機。
(8)來自行為變通性的論證。我們不可能總結出一套規則來囊括一個人在所有可想象的環境中的行為。比方說,我們可以有這樣一條規則:行人見到紅燈止步,見到綠燈行走,但是,由於某種錯誤,紅綠燈同時亮了,那該怎麼辦?我們也許會這樣決定,為安全起見最好止步。但是,這個決定還會有其他問題。要想總結出一套可行囊括一切人類行為的規則,哪怕是有關紅綠燈的規則,看來都是不大可能的。對這些看法我全贊同。
從這一點可以得出,我們不能成為機器。我試圖重新進行論證,但又恐怕做不好。似乎可以這麼說:“如果每一個人都有一套行動規則來制約他的生活,那麼,人同機器就會相差無幾了。但實際上不存在這種規則,因此,人不能成為機器。”這裡,不周延的中項十分刺眼。我想誰也沒有這樣去論證過,但我相信實際上用的就是這樣的論證。有人將“行為規則”和“行為規律”混為一談,因此使這個問題有點模糊不清。所謂“行為規則”我指的是像“見到紅燈止步”這樣的規則。對這類規則你能服從,並能意識到。所謂“行為規律”我指的是自然律,若用在人體上的話,就像“如果你擰他,他就會叫喊”這樣的規律。如果我們將上面所引證中的“制約他的生活的行為規律”改為“他用以制約自己生活的行為規律”,那麼,這個論證中的不周延的中項就不再是不可克服的了,因為,我們相信,不僅是,用行為規律來制約生活意味著人就是某種機器(儘管這種機器並不一定就是一臺離散狀態的機器),而且反過來說,如果是這樣一臺機器的話,那麼,它就是由這種規律來制約的。然而,我們很難像否認完整的行為規則那樣輕易地否認完整的行為規律。只有透過科學的觀察,才能發現這種規律;無論在何種情況下,都不能說:“我們找得夠久了,這種規律實際上不存在。”
我們可以找到有力的證據,證明這種說法是不正確的。因為,假定存在這種規律,我們肯定能夠找到。對一臺離散狀態的機器來說,我們極有可能透過觀察找到規律,預測其未來的行為,這要有一個合理的極限,比方說,在1000年之內。但事情並非如此,我曾在曼徹斯特計算機內輸入了一個程式,這個程式用 1000儲存單元,這樣,這個  16位數的計算機就可以在兩秒鐘內作出回答。我絕對不相信任何人能僅從這些回答中充分了解這個程式,並預測對未試值的回答。
(9)來自超感官知覺的論證。我想讀者都很熟悉超感官知覺的說法,熟悉它的四種方式即心靈感應、千里眼、先知和精神運動的意義。這些令人不安的現象似乎在與一般的科學觀念作對。我們多麼想懷疑它們!不幸的是統計的證據使人至少對心靈感應不得不信。人們很難重新調整自己已有的觀念以接受這些新事物,我們一旦接受了這些事物,就離相信鬼怪精靈為期不遠了。朝這個方向前進的第一步是相信我們的身體除了按照已知的物理學規律運動外,還按照未知的、但相近的規律運動。
這個論點在我看來十分有力。我們可以這樣回答,許多科學理論儘管同超感知覺有衝突,但實際上還是可行的;事實上,我們要是對這些現象置之不理,依然能活得很好。這是一種甚為冷漠的安慰,恐怕思維這個現象與超感知覺有著特殊的聯絡。
基於超感知覺的更具體的論證大致如下:“讓我做一個模擬遊戲,讓一個善於接受心靈感應的人和一臺數字計算機作為證人。提問者可以想象‘我右手中的那張牌是哪個花色?’這樣的問題。具有心靈感或千里眼的被問者在 400張牌中可以答對  130張。而機器只能隨機猜對約 104張,因此提問者就能作出正確的鑑定了。”這裡有一個有趣的可能性。假使這臺數字計算機有一個隨機數字生成程式,那麼,我們很自然就能用這個程式來決定給予什麼回答。但是,這個隨機數字生成程式又處在提問者的精神運動的能力作用範圍之內。有了精神運動,計算機猜對的次數比機率計算還要高,因此,提問者就無法作出正確的鑑別了。而另一方面,提問者也能透過千里眼,不用提問就猜對。有了超感知覺,什麼樣的事都會發生。
如果允許心靈感應介入模擬遊戲,我們就有必要嚴格規定測試方式。現在這情景就好比在模擬遊戲中,提問者在自言自語,一個被問者正貼牆側耳傾聽。要是將被問者置入一間“防心靈感應室”,就能滿足所有要求。
7.學習機器
讀者可能會錯誤的認為我並沒有令人信服的正面論證。否則,我就不花費那麼多精力來反駁對方的觀點。其實並非如此,下面我將給出這樣的證據。
先回到  Lavelace夫人(譯註:愛倫)的反對意見。她認為機器只能按我們的指示做事。你可以說,人給機器“注入”一個想法,機器以某種方式反應,最後又重新靜止。就像一個被錘子敲擊的鋼琴絃一樣。另一個比喻就是一個低於臨界體積的原子堆:輸入的想法就像從原子堆外部轟擊的中子。這些中子會引起一些反應但是最後將逐漸消失。但是,如果原子堆的大小變的足夠大的時候,中子產生的反應很可能會持續的增加,直到原子堆解體。思維中是否存在這樣的現象呢?機器中呢?這樣的現象在人腦中應該是存在的。絕大多數思想都處於“亞臨界”狀態,對應於處於亞臨界體積的反應堆。一個想法進入這樣的思想中,平均下來只會產生少於一個的想法。有一小部分思想處於超臨界狀態,進入其中的想法將會產生越來越多的想法,最終成為一個完整的“理論”。動物的頭腦顯然是處於亞臨界狀態的。由於這種相似性,我們不得不問:“一個機器能不能成為超臨界的?”
“洋蔥皮”的比喻很有用。研究思維的或腦的功能的時候,我們發現一些操作完全可以用純機械的方式解釋。它們並不對應於一個真正的思維,所以把它們像洋蔥皮一樣剝除。但是這時,我們發現仍然有新的機械思維需要剝除,一直這樣下去。用這樣的方式,我們是否能夠達到真正的思維,或者最終發現皮裡面什麼也沒有了?如果是後一種情況,那麼整個思維都是機械的。(但它不是一個離散狀態機,我們已經做了說明)
與其說上面兩段是有力的證明,倒不如稱之為“為了產生信仰的背誦”。第六部分開始時提出觀點的真正令人滿意的證明,只能等到本世紀末出現能夠透過實驗的機器出現。但是我們此時此刻能夠拿出什麼呢?如果實驗將來會成功,現在應該採取哪些步驟呢?正如我所解釋的那樣,程式的編寫是關鍵。工程設計上的進步也是需要的,但是看上去讓它們滿足要求是完全能夠實現的。估計大腦的儲存能力在 10^10到   10^15之間。我傾向於比較小的數字,因為我認為只有一個很小的部分被用來進行高階的思考。其餘的大部分可能用來儲存視覺影像。如果進行模仿者遊戲需要的儲存容量超過  10^9,是令人驚訝的。(請注意--英國大百科全書的容量為 2*10^9。)即使立足於目前的技術,10^7的儲存容量也是非常實際的。也許根本就不需要增加機器的執行速度。一部分模擬神經細胞的現代機器的速度比神經細胞快1000倍。這提供了一個”安全餘量”,用來補償各個方面產生的速度損失。剩下的主要問題就是找到給這些機器程式設計的方法,以使它們能夠完成遊戲。現在我一天大概能編 1000位元組的程式,所以如果大約 60個工人在未來  50年穩定的工作,並且沒有東西扔進回收站,就能完成這個工作。看上去需要更快速的方法。
在模仿一個成人思維的時候,我們必須考慮它是怎樣達到當前狀態的。
可以發現以下三點:
(a)思維的初始狀態,也就是出生時的狀態
(b)它所接受的教育
(c)它所經歷的,不能被稱為教育的事情
除了嘗試設計一個成人思維的,為什麼不試試設計兒童一樣的思維。如果它接受正確的教育,它就可能成長為一個成人的大腦。一個兒童的大腦大概就像一個剛從文具店買來的筆記本。只有簡單的機制,和許多空白的紙張。(機制和字在我們看來幾乎是同義的)我們希望兒童腦中的機制足夠少以使它很容易的被程式設計。我們可以假設對機器進行教育的工作量和教育一個人類兒童基本相當。這樣,問題被分為兩個部分。設計一個兒童程式和對它進行教育。這兩者聯絡緊密。我們不可能一步就找到一個好的模擬兒童的機器。必須透過對它進行實驗教學來研究它的學習效果。然後試驗另一個程式並判斷是否更好。顯然這個過程和進化是有聯絡的。因為:
兒童模擬機的結構  =遺傳物質
兒童模擬機的變化  =變異
實驗者的決定  =自然選擇
這個過程應該比進化快的多。只留下最適應者是一個較慢的度量優勢過程。透過結合智能的實驗將會加快這一過程。另一個重要的事實是並不需要侷限於隨機的變異。如果能夠發現一些缺陷產生的原因,就可能發現透過何種變異可以改進它。教育機器和教育兒童的過程不大可能完全相同。例如,它沒有腿,因此就不會被要求去給煤球爐加煤。它也可能沒有眼睛。不管聰明的工程師採取何種方法克服這些缺陷,只要這樣的機器被送進人類的學校,其他的學生肯定會嘲笑它。它必須得到專門地指導。我們不需要太注意腿眼等等器官。海倫 .勒女士的例子表明只要老師和學生能夠以某種方式進行雙向的交流,教育就能進行。
懲罰和獎勵通常是教學的一部分。在這些原則下,就可以建造或編寫簡單的兒童機器。如果某個行動後很立刻遭到懲罰,機器要能做到不再重複這樣的行動;而接受獎勵的時候,產生這個獎勵的行動以後更有可能發生。我對一個這樣的兒童機器進行了一些實驗,而且成功的教會了它一些東西。但是教育方法有一些不正規,因此這樣的實驗還不能稱為成功。懲罰和獎勵最好能作為機器教育過程的一部分。概略的說,如果老師沒有其他的方式和學生交流,教給學生的資訊不會超過獎勵和懲罰所給資訊的總和。一個兒童學要學會說“Casabianca”,一定會經歷一個痛苦的過程。如果只能透過“二十個問題”的方法才能發現一個詞,每一個“No”都將是一個打擊。因此應該尋找其他的“非感情”的交流渠道。如果能夠找到,透過懲罰和獎勵就能讓機器學會以某種語言給出的命令。這些命令透過“非感情”的渠道傳輸。這種語言的使用將會大大降低需要進行懲罰和獎勵的次數。
對於什麼樣的複雜程度更適合兒童機器可能有不同的看法。可能會有人主張儘可能的簡單以保持通用性。另一種方式是嵌入一個完整的邏輯介面系統。在後一種情況下,大多數存儲空間將被用來儲存定義和命題。這些命題可能具有各種各樣的形式。例如,確定的事實,推測,數學上證明的定理,權威給出的判斷,具有邏輯形式卻沒有確定值的表示式等等。一些命題可以被稱為“命令”。機器應該能夠在命令是確定的時候立即自動執行合適的動作。例如,如果老師對機器說“現在做你的家庭作業”。這將使“老師說'現在做你的家庭作業'”成為確定的事實。另一個事實可能是“老師說的一切都是對的。”這兩個結合到一起將使“現在做家庭作業”成為確定的事實。而根據機器的建造規則,這意味著立即開始寫家庭作業。效果還是令人滿意的。機器的推理過程並不需要像這樣遵守嚴格的邏輯。例如可能並沒有類型體系。但這並不意味著出現型別謬誤的機率會比我們從懸崖摔下的機率高。合理的命令(在系統內部表達,並不是系統規則的一部分),比如'不要使用一個種類除非它是老師提到種類的一個子類'就和'不要他接近邊緣'具有相似的效果。
一個沒有四肢的機器人需要遵守的指令集中在智力層面,就像上面做家庭作業的例子那樣。在這些指令中,最重要的是規定邏輯系統的規則以什麼樣的順序執行。因為在使用這個系統的每個步驟中,都會有許多不同的步驟供選擇,在遵守邏輯系統的規則的情況下,選擇任意一個都是允許的。如何進行選擇將區分聰明的推理者和一個傻瓜,而不是區分出一個推理是正確還是謬誤。產生這樣的命令的陳述可能是“當提到蘇格拉底的時候,使用芭芭拉的三段論”者,如果有一個方法被證明比另外的方法快,不要使用慢的方法。這些陳述可能來自權威,以可能來自機器本身,例如透過科學推理得到的。一些讀者可能會感到學習機器的想法有些矛盾。怎樣能夠改變機器遵守的規則呢?這些規則應該完全決定機器應該做出何種反應,不管他的經歷是什麼,不管發生了什麼變化,因此應該是時不變的。確實是這樣。而對這個矛盾的解釋是,在學習過程中改變的規則並不是永遠不變的,這樣的規則僅僅在一個短時間內起作用。讀者可以用美國的憲法進行類比。
學習機器的一個重要特點是它的老師通常不關心其內部發生了什麼變化,儘管老師能夠在一定程度上預測他學生的行為。當被教育的機器是經過試驗證實的好設計或程式設計的時候,更應該如此。這一點和使用機器進行計算形成鮮明的對比。在後一種情況下,我們需要清楚的明白在任意時刻機器的計算狀態。要達到這個目標需要付出艱苦的努力。這樣, '機器只能按我們的要求做事'的觀點就會顯得很奇怪。我們輸入機器的大部分程式將引起機器執行一些我們無法完全瞭解的事,或者一些我們認為完全是隨機的事。智慧行為應該和完全服從命令的行為方式有區別,而這種區別也不能太大,不應該產生隨機的行為或無限迴圈。透過教學的方式使我們的機器能夠進行模仿著遊戲的一個重要結果是:“人類的不可靠”的特點很可能被相當自然的忽略,也就是不需要專門的輔導。透過學習得到的行為並不應該是百分之百的,確定的結果;否則,這些過程就不會被忘記。
在一個學習機器中加入隨機元素應該是明智的。一個隨機的元素在我們尋找一些問題的答案時是相當有用的。例如我們想找到一個介於 50和  100的數,它等於各個數字的和的二次方。我們可以從 51,52開始一直試下去直到找到滿足條件的數。另一個方法是隨機的選數直到找到滿足條件的數。這個方法的缺點是一個數可能重複試兩次,但是當有多解的時候,這一點變得並不重要了。系統化的方法的一個缺點是可能存在很大一段數中並不存在解,但我們需要先驗證它。現在的學習過程可以看成尋找一個行為規則滿足老師的要求(或一些其他的標準)。因為可能存在大量的可能解,隨機的方法可能比系統的方法更好。請注意,這和進化過程是相似的。但是系統化的方法並不是不可能的。如何能夠跟蹤不同的基因組合而不產生重複呢?
我們可能希望機器能和人在所有的純智力領域競爭。但是首先從哪裡開始呢?這也是一個困難的決定。許多人可能會說一個抽象的行為,例如下國際象棋可能是最好的選擇。也可能需要給機器最好的感測器。然後教它聽懂英語。這將和教一個正常的小孩一樣。它應該被指出並命名等等。我並不知道正確的答案,但是我想這些方法都應該試試。
我們的目光所及,只是不遠的前方,但是可以看到,那裡有許多工作要做。
We can only see a short distance ahead,but we can see plenty there that needs to be done。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29067253/viewspace-2056304/,如需轉載,請註明出處,否則將追究法律責任。

相關文章