一目十行:上下文快速閱讀法

banq發表於2024-05-14

基於上下文關係的閱讀方法:不死扣每個詞語字眼,而是著眼這個詞語的語境前後關係。

以下是ChatGPT回答:
基於上下文關係的閱讀方法強調理解文字的整體語境,而不僅僅是理解單個詞語或短語。

這種方法的核心是透過識別句子、段落甚至整篇文章中的邏輯關係和線索,來解讀文字的含義。以下是一些實踐方法:

  1. 上下文預測:在閱讀時,試著預測一個詞或短語的意義,而不是簡單地依賴於詞彙表。考慮它在句子或段落中的角色,以及它前後出現的詞語,來推斷它的含義
  2. 語境線索:尋找文字中的線索,比如邏輯連線詞(例如"因此","然而","所以"等),時間線索("過去","現在","將來"等),以及因果關係等。這些線索會幫助你理解詞語的含義和句子的結構
  3. 重點句子:注意文字中的關鍵句子,特別是那些概括了文章主題或提供重要資訊的句子。理解這些句子對於把握整個文字的意義至關重要。
  4. 上下文修飾:關注詞語周圍的修飾語,如形容詞、副詞和介詞短語,它們會提供關於詞語含義的重要線索。
  5. 重複和強調:注意文字中重複出現的詞語或主題,以及被強調的內容。這些重複和強調可以揭示作者的意圖和重點
  6. 語境推理:透過理解句子中的邏輯關係和上下文,進行推理。例如,根據上下文推斷生詞的含義,或者從前文和後文中推斷作者的觀點。
  7. 背景知識:利用你已有的知識來幫助理解文字。這包括文化背景、歷史背景、以及作者可能假設你已知的事實。

透過結合這些方法,你可以更全面地理解文字,而不僅僅是瞭解其中的每個詞語。

總結
基於上下文關係的閱讀方法可用實現一目十行,短時間瞭解大量科學論文,透過大模型輔助幫助,提升學習效率。

有些人對機翻的生硬詞語反感,這其實是沒有掌握上下文閱讀方法的情緒牴觸。人類進入AI機器人共處時代,不同國家多語言也進入相互促進的共同繁榮,例如有漢語 日語和英文三種支援的Hololive釋出的一個影片中:把 "Maccas run "唸錯成了 "Maccas Jdon",引起了Hololive追隨者的笑話和嘲笑,將 Jdon變成了一個俚語和口頭禪。

語言文字本身已經變成了一個符號,這個符號的內在意義以及它指向什麼物質,這些都變得不再重要,相反,意義即使用,只要這個符號有使用價值,即有意義,例如比特幣是一個數字符號,在美元流通稀少時,可以替代美元支付,購買那些無法購買到的晶片產品。

符號詞語的意義是在被使用的語境中真正產生意義,例如Table這個詞語,如果你直接學習Table詞語,查字典,它有桌子、資料表等含義,然後你會像字典一樣背誦所有這些可能的意義嗎?有計算器在手邊,你還在背誦加減乘除口訣,然後笑話那些只會用計算器的人嗎?

那麼如何學習Table這個詞語意義?
透過table所在文字的上文和下文關係推斷,其實它無論是桌子或資料表的哪個含義不重要,在資料處理上下文中,它與Schema資料結構可能更類似,而Schema與Pattern模式之間反而有區別,Schema vs. Pattern v.s Form,這些都屬於形式邏輯領域的常用詞語,無法直接深入這些詞語內部去區分它們,而是隻能從它們被使用的場景去推斷。

基於上下文的閱讀方法能夠讓你不畏懼生詞、陌生詞語,跳過閱讀過程中的各種攔路虎,提高時間效率,綱舉目張。

補充:
最重要一點是:人的大腦類似大語言模型,基於上下文的閱讀方法可能類似於大模型的訓練,當你閱讀的陌生領域的文字達到一定規模時,湧現 就可能出現,也就是你一下子明白了這些文章在談論什麼,領會?貫通?頓悟?

現在人們還不明白大模型為什麼達到一定規模會湧現出智慧,但是我們可以把我們人類大腦當成一個大模型,用基於上下文閱讀方法訓練它,期望有一天神奇會出現,而且肯定會出現。

banq注:
我本人採取這種方法,幾年內閱讀了大量生物醫方面關於抗衰方面的文章,從一開始寸步難行到現在一目十篇論文。

相關文章