OpenAI o1 模型到來後,談談提示詞工程的未來

Baihai_IDP發表於2024-12-09

編者按: 你是否也在思考:當 AI 模型越來越強大時,我們還需要花時間去學習那些複雜的提示詞技巧嗎?我們究竟要在提示詞工程上投入多少精力?是該深入學習各種高階提示詞技術,還是靜觀其變?

本文作者基於對 OpenAI 最新 o1 模型的深入觀察,為我們揭示了一個重要趨勢:就像我們不再需要專門去學習"如何使用搜尋引擎"一樣,與 AI 互動也將變得越來越自然和直觀。文章不僅分析了提示詞技術的發展趨勢,更提供了務實的建議:與其投入大量時間掌握可能很快過時的複雜技巧,不如專注於培養清晰表達需求的能力。

作者 | Louis-François Bouchard , Francois Huppe-Marcoux, and Omar Solano

編譯 | 嶽揚

今天,我們探討一個切合當前的問題:提示詞(prompting)是一種我們需要掌握的技能,還是僅僅是一個過渡性的需求? 隨著大語言模型(LLMs)的發展(例如,從 GPT-3 到 GPT-4o,再到現在的 o1),我們與這些模型的互動方式也在發生變化。

提示詞(prompting)雖然依舊存在,但其複雜性可能並不會持久。讓我們來探討一下這一行業格局正在如何演變,以及它對我們這些日常與人工智慧打交道的人來說,意味著什麼。

01 提示詞技術是否會長期存在?

提示詞技術,尤其是那些你可能聽過的“高階技巧[1]” —— 比如“提示詞鏈(prompt chaining)”,“小樣本學習(few-shot learning)”或“思維鏈(chain-of-thought)”技術,正受到關注。我們在以往的文章中[1]對此有過明確的表態,對過度複雜的技巧使用提出了批評。原因何在?因為大語言模型(LLMs)正在進步,它們正在學習如何更好地適應並理解我們的需求,而不是依賴於複雜的提示詞構造。

💡提示詞鏈技術是將複雜任務拆分為更小、更連續的提示詞,以獲得更準確的答案。例如,先要求大模型列出一系列想法,然後逐步對這些想法進行細化。

隨著模型的不斷最佳化,它們對複雜提示詞的依賴程度也會降低,交流也會越來越自然。可以預見,隨著大語言模型能夠從基本輸入中推斷出更多資訊,這些高階技術將逐漸被淘汰。OpenAI 的 o1 系列模型已經展示了這種轉變。隨著模型推理能力的提升,複雜指令的需求也在減少[2]。

回想一下網際網路的早期 —— 那時有大量的書籍和課程教人們“如何使用網際網路”。它複雜、新奇,人們需要掌握其使用技巧。但如今,沒有人需要透過專門課程來學習如何使用谷歌,谷歌的使用變得非常直觀和簡單。

提示詞和大語言模型(LLMs)也將經歷類似的過程。目前,學習高階提示詞技術確實有幫助,但大語言模型將不斷適應使用者,就像我們現在上網變得輕車熟路一樣,我們也將自然而然地知道如何使用它們,就跟我們熟練使用谷歌搜尋一樣。

但是這並不意味著提示詞會消失。但其重要性將轉變為不再需要掌握特定的技術,而是要清楚表達你的需求。 這就像與同事溝通:你不需要細緻入微地進行指導,但你仍需要明確傳達資訊。也就像你的同事一樣,大語言模型(LLMs)目前還不能(還不會)讀懂你的心思。

02 那麼,提示詞真的是一項值得學習的技能嗎?

答案是既是也不是。目前,掌握有效的提示詞技巧可以極大地提升我們與大語言模型(LLMs)的交流體驗。但這一技能正在不斷發展變化。

以 ChatGPT 為例,它具備記憶功能(能夠自動儲存與你相關的資訊),最終將熟悉你的風格、偏好的資訊來源,甚至是專案進度。這就像和一個比你自己還了解你習慣的同事合作。雖然現在擅長提示詞很有用,但這項技能的重要性可能很快就會降低。

我們應該如何看待這個問題呢?保持對大語言模型(LLMs)發展態勢的關注是必要的。基本技能在今天很有用,但不必過分追求精通“高階技巧” —— 隨著模型能夠更好地理解我們的意圖,這些技巧可能會逐漸變得不那麼重要。 正如目前被認為是最佳提示詞技巧之一的“思維鏈”(chain-of-thought),也隨著 o1 的推出而逐漸消失。

03 那麼,還有一個問題……你是否真的需要一個提示詞工程師?

“提示詞工程師”這個角色已經引發過很多討論。雖然他們在特定場合(如開發AI驅動的應用程式時)能夠提供很大幫助,但並非在所有情況下都是必需的。許多開發人員和業餘愛好者只需稍作嘗試,就能掌握提示詞的技巧。

💡提示詞工程師:專門負責為大語言模型(LLMs)制定詳盡且具體的指令,以獲得儘可能優質的輸出。這類專家通常在處理特定領域、高風險的任務時不可或缺。

真正的價值不在於編寫複雜提示詞的能力,而在於明確你想要達成的目標。擁有恰當的評估標準和理解如何衡量 AI 輸出成功與否的能力更為關鍵。一位“提示詞工程師”(或者僅僅是一個經驗豐富的使用者)可能會在專案初期提供支援,但一旦系統啟動並執行,常規的開發人員就能接手維護和調整系統效能。

這裡就引出了真正的變革者:像 OpenAI 的 o1 這樣的模型。o1 利用 test-time computing[3] 來最佳化其響應,現在能夠“推理”出你的目標需求,而不僅僅是遵循一系列指令。你不再需要指導模型如何達成目標需求,只需設定目標需求[2],模型便會自行生成實現步驟。

舉例來說,你不必逐一指導 —— “編寫新品釋出的電子郵件營銷文案,接著起草社交媒體策略,並詳細規劃各階段的時間表”,只需提出“為該產品制定一份詳盡的上市計劃”即可。o1 模型能夠自行生成完整的行動計劃,包括電子郵件文案、社交媒體內容以及詳盡的時間安排表。這種方式轉變了互動模式:模型不僅回應了你的指令,而且開始為你主動規劃和執行任務。

💡Test-Time Compute[3]:這項功能讓模型在生成回答時能進行更深入的推理,透過更長久的深思熟慮來提升處理複雜任務的輸出質量。

隨著 o1 這類大語言模型(LLMs)的進步,我們將見證從使用者定義步驟到模型主導執行的轉變。不久的將來,我們無需為每個具體任務設計提示詞 —— 模型將完成大部分繁重的工作。

還有一點需要明確:擅長設計提示詞並不代表你就是人工智慧領域的專家。把 API 和提示詞結合起來,與理解其背後的技術原理,這兩者之間有很大區別。

要構建一個真正由人工智慧驅動的應用程式需要深厚的機器學習知識,而不僅僅是提示詞技能。大多數情況下,利用 LLMs 的應用並非“AI應用”,它們只是透過呼叫 API 來獲取語言模型響應的應用。雖然構建利用 LLMs 的強大應用不一定需要 AI 專業知識,但區分提示詞設計和實際的 AI 專業知識仍然非常重要。

04 In conclusion… (tl;dr)

提示詞技術不會消失,但我們與大語言模型(LLMs)的互動方式將變得更加簡單。目前所需的高階提示詞技巧只是暫時的。未來,AI 將更加懂得使用者需求,複雜提示詞的需求將逐步減少。關鍵是要隨時瞭解情況,不斷嘗試,並知道自己想要實現什麼目標。

我們非常期待聽聽你的想法:你是否認同這一觀點?還是持有不同意見?你是否有在學習如何更高效地使用提示詞技術,或者你認為 AI 的飛速發展將很快讓這些技巧變得不再重要?請分享你的看法!

Thanks for reading!

Hope you have enjoyed and learned new things from this blog!

END

本期互動內容 🍻

❓雖然 AI 模型在不斷進化,但你認為在哪些場景下,精確的提示詞技術仍然是不可或缺的?為什麼?

🔗文中連結🔗

[1]https://highlearningrate.substack.com/p/mastering-advanced-pr...

[2]https://x.com/swyx/status/1836805320795955525

[3]https://highlearningrate.substack.com/p/teaching-ai-to-think-...

原文連結:

https://highlearningrate.substack.com/p/o1-and-the-future-of-...

相關文章