GPT-3透過圖靈測試已經不稀奇,但能透過Winograd測試嗎?能真正識別推斷語言的上下文場景嗎? -Tannya

banq發表於2020-09-15

為了對該主題進行有意義且細微的討論,我們首先需要定義智慧。人工智慧研究人員Max Tegmark提供了最簡潔明瞭的智慧定義:
智力是完成複雜目標的能力。
人工智慧可以定義為電腦科學的廣闊領域,它使機器看起來好像具有人類智慧。當然,今天的討論要複雜得多。我們需要更進一步,區分人工窄智慧(ANI或Narrow AI)和人工通用智慧(AGI或General AI)。

人工智慧(ANI)也被稱為“弱” AI,是當今世界上存在的AI。Narrow AI是經過程式設計以執行一項任務的AI,無論是檢查天氣,能夠下棋還是分析原始資料以編寫新聞報導。這也是我們每天使用和互動的一種AI:從我們依賴的推薦引擎到Siri和Alexa等虛擬助手。
另一方面,人工智慧或“強”人工智慧是指表現出類人智力的機器。AGI應該成功執行人類可以執行的任何智力任務。這包括理解世界的能力,抽象思維的能力以及在日常生活中進行常識性推理的能力。
 

GPT-3是哪種AI?
就像我們今天所有其他AI一樣,GPT-3屬於Narrow AI的範疇。
與其他自然語言處理(NLP)模型一樣,GPT-3被賦予輸入(大量的語言資料),對其進行程式設計以解析該資料,從中進行模式化(使用深度學習演算法),然後產生結果(單詞之間的相關性) ,長句和連貫的段落)。
NLP的最終目標是擁有能夠編寫合理的電子郵件響應或能夠與人類進行口頭對話的AI。
但是,除了要完成的指定任務外,NLP程式無法完成其他任何事情:NLP只專注於並且通常只能完成手頭的任務:提高其產生類似人類語言的能力。
 

圖靈測試與Winograd模式挑戰

圖靈測試是AI中一種初步的查詢方法,用於確定計算機是否能夠像人一樣思考。如果一臺機器可以成功地欺騙一個秘密的詢問者,使其相信它也是人,那麼它就已經透過了圖靈測試。
許多使用深度學習技術的系統很快就會透過圖靈測試-GPT-3是一個很好的例子。沒有上下文,任何讀者將無法分辨文章是由人類還是由機器人編寫的。看看下面段落:

感謝您的反饋。我一直感謝您的反饋。我一直很感激我的著作現在已經在我自己的領域之外廣泛被閱讀了。我不經常與不認同我的人互動。因此,我不確定來自不同背景的人們將如何接受本文。


從以上段落可以清楚地看出GPT-3具有智慧。我們知道,只要有目標(寫論文),它就可以成功地實現目標。
這個事實本身絕對是令人敬畏的。GPT-3似乎已經以一種有意義、相關聯想並喚起讀者情感,也掌握了語言和關聯詞的藝術。
但是,GPT-3是否能顯示出全部的人類智慧?
沒有。
如果我們想知道一臺機器是否具有完整的人類智慧,我們就需要超越圖靈測試走得更遠。
一種更成熟的AI檢查方法是Winograd模式的問題線,對於人類而言,這很容易回答,但對計算機構成了嚴峻的挑戰。Winograd模式是一對句子,它們之間只有一個或兩個單詞不同,並且包含歧義,該歧義在兩個句子中以相反的方式解決,並且需要使用世界知識及其推理來解決。
該模式的名稱來自Terry Winograd的一個著名示例:

The city councilmen refused the demonstrators a permit because they feared violence.
市議員拒絕給示威者許可證,因為他們畏懼暴力。

The city councilmen refused the demonstrators a permit because they advocated violence.
市議員拒絕給示威者許可證,因為他們鼓吹暴力。


在以上兩個句子中,“他們”指的是誰?當然,作為人類讀者,我們大多數人都可以推斷出“他們”一詞的含義因所使用的形容詞而異。這就是我們大多數人每天使用的常識推理。
 
banq注:類似中文:

“冬天:能穿多少穿多少。夏天:能穿多少穿多少。”

在冬天說“穿多少”與在夏天說“穿多少”是不一樣的。這取決於上下文,根據統一語言上下文尋找領域模型是DDD重要的起始步驟。這是人類BA業務分析師或產品經理建模的特點。
 
GPT-3是否可以展示這種推理是一個謎(但是我願意猜測它不能)。
如今,大多數AI系統仍將無法透過Winograd Schema測試:但是,不確定這種狀態會持續多長時間。
 

智力與意識
與其問GPT-3是否像人類一樣聰明,不如問以下兩個問題:

  1. GPT-3智慧嗎?是
  2. GPT-3有意識和自我意識嗎?沒有。

如果說智慧是解決複雜問題和實現複雜目標的能力,那麼GPT-3無疑是智慧的。確實,這就是為什麼狹窄的AI仍被稱為人工智慧的原因。
今天,我們沒有理由相信GPT-3以我們的方式有意識或具有自我意識。意識和無意識之間的差異是主觀經驗的問題。然後有人可能會問:GPT-3就像是某種東西嗎?儘管我們不能確定,但​​是我認為可以肯定地說GPT-3沒有主觀經驗。(我們人類是有意識的,石頭毫無疑問是無意識的,小狗也表現出某種程度的意識)
通用AI系統將能夠推理,解決問題,在不確定性下做出判斷,計劃,學習,將先驗知識整合到決策中,並且具有創新性,想象力和創造力。
沒有證據表明GPT-3能夠做到這一點。實際上,沒有證據表明它實際上能夠以有意義的方式理解它所說的任何內容。沒有證據表明它對現實世界有任何概念,或者對“好”或“邪惡”的真正含義是什麼。我們僅有的證據是它具有解析大量資料並形成有意義的複雜關聯的能力。
 
儘管如此,GPT-3還是一種非常強大的預測工具,它在Narrow AI領域中所取得的成就絕對是驚人的。


 

相關文章