大模型是否成功支援了維特根斯坦“意義即使用”?

banq發表於2024-04-17


比特幣為啥有用?不是它本身用多少黃金 石油做標的,不是它本身指向了多少實在物質,而是有人使用它,只要被使用就有價值,而不在於該符號本身有多少價值。

我們所說的 "成功 "是指當前的人工智慧/LLM 能夠生成被人類讀者認為連貫、翔實甚至令人信服的文字。

維特根斯坦的立場是:
對於使用 "意義meaning "一詞的大部分情況(儘管不是全部情況)這個詞可以這樣解釋:

  • 一個詞的意義就是它在語言中的用法

來自在他的 《哲學研究》

請注意,這個問題:

  • 不是關於 "機器理解嗎?機器會思考嗎?它有思想/意識嗎?"或諸如此類的問題,他自己說:"但機器肯定不會思考!"
  • 而只是關於語言的問題。

例如,既然機器根據統計分析生成了文字,而且這些文字在我們看來是 "有意義的",那麼 "意義 "真的只是使用嗎?

網友觀點:
1、我認為這確實說明了一些重要的問題,也暗示了維特根斯坦的觀點--但這絕對不能證明維特根斯坦的觀點。

我認為它所表明的最大問題是,喬姆斯基 反對斯金納的許多論點(在他對《言語行為》的評論中)都是有缺陷的。

喬姆斯基聲稱,言語行為無法透過刺激和反應的統計模式來理解:

  • 因為在這裡無法理解機率,
  • 因為任何語詞的機率都太小了,無論如何都無法在任何訓練集中顯示出來,
  • 因為我們無法將訓練分為語言的一部分和世界的一部分,
  • 還因為有些語法正確的語詞由於語義缺陷而從未顯示出來(例如 "無色的綠色想法睡得正香colorless green ideas sleep furiously")。

LLM大模型 表明:

  • 事實上有一種方法可以使統計訓練的模型產生可信的文字,包括產生從未出現過的全新語篇,從而使機率變得有意義。
  • 事實上,該模型只是看到詞語對其他詞語的反應,並沒有一個帶有真值條件的語義模組
  • 這表明,與真值條件模型相比,維特根斯坦的模型更適合產生可信的語篇。

但事實上,LLM大模型並沒有交流的意圖,而且(大多數情況下)也沒有語言之外的感官模式,這意味著無論它們在做什麼,都不太可能是人類所從事的全部意義活動。

網友討論
1、維特根斯坦可能會第一個提出這樣的論點:

  • 一個正常執行的大語言模型的存在本身並不具有任何哲學意義。
  • 構建大型語言模型是一個數學或工程問題。

此外,考慮到最近大型語言模型的發展在很大程度上是由於克服了硬體、規模和盈利能力等基礎設施上的純粹實用限制所造成的障礙,因此請抑制你的熱情;理論基礎設施已經存在了很長時間。如果認為對這些技術的大規模資金投入預示著任何哲學證據,那就太愚蠢了(一臺正常執行的量子計算機能證明多重世界的解釋嗎?)

此外,大模型與 "意義即使用 "的問題沒有明顯的關係,因為大模型並不是維特根斯坦意義上的 "使用"。

"使用一個詞 "是一系列複雜的活動和社會制度,遠遠超出了將一個詞插入 "正確 "位置以生成一個連貫的句法串的機械過程,而這個句法串是對由確定的輸入引數從外部精心設計的人為語境上下文做出反應的。

一個詞的意義就是在不同的語言遊戲中使用它。

2、來自 SEP Wittgenstein 3.3 作為使用的含義:
https://plato.stanford.edu/entries/wittgenstein/

然而,對(一個詞、一個命題)的使用的確定,並不是像《邏輯哲學論》中那樣,被賦予任何建構性的理論構建。相反,在研究意義時,哲學家必須 "看一看 "詞的各種用途。與工具的類比揭示了詞語的本質。當我們想到工具箱中的工具時,我們不會看不到它們的多樣性;但 "詞語的功能就像這些物體的功能一樣多種多樣"(PI 11)。

根據上下文,單詞可以具有不同的含義
使用工具類比,螺絲刀在驅動螺釘時具有一種含義,在撬開一罐油漆時具有不同的含義。

問 ChatGPT:
螺絲刀相當於撬棒嗎?

答案:
雖然螺絲刀和撬杆都可以用作槓桿作用,但它們的主要用途不同。螺絲刀主要用於將螺釘擰入或擰出材料,而撬杆專門設計用於撬開或抬起物體。雖然螺絲刀在某些情況下有時可以用作臨時撬杆,但這不是它的預期用途,並且這樣使用它可能會損壞螺絲刀,甚至可能損壞您正在處理的物體。通常,將工具用於其預期目的更安全、更有效。

基於這個答案,ChatGPT使用的LLM大模型既支援又融合了維特根斯坦的立場。

3、根據後維特根斯坦的邏輯哲學論:

  • 詞語是“意義家族”;一個詞的具體“含義”取決於(或者可能是)它在上下文中的使用。
  • 說話者和聽者必須共享該上下文的一部分,以免他們無法溝通(參見“私人語言”討論,例如調查中單個人特有的感覺)。

從這個意義上說,大模型所寫的單詞和句子肯定是有意義的。

  • 大模型接受過大量文字的訓練,其中的單詞出現在不同的上下文中;這些模型“吸收”了這些背景並將其內化。
  • 當他們構建文字時,他們會根據這些儲存的上下文使用單詞。

在某種程度上,它們是一群原始人類說話者和聽眾之間的中介。

他們使用這些詞的方式與原作者使用它們的方式相同;

  • 這就是為什麼生成的文字中的單詞具有可理解的含義,即使模型沒有意識並且“不知道它在說什麼”;
  • 事實上,“知道”這個詞絕對不適用,因為除了單詞上下文之外,機器中沒有任何瞭解的設施。

但它卻產生了意義,確實屬於維特根斯坦的意思!

banq注:

  • DDD界限上下文BC = 意義即使用 (詞的外部)
  • DDD實體 = 詞的內部

相關文章