你是否有過這種體驗:某一天逛街的時候,腦子裡突然冒出來一個好玩的故事,但你一時想不到更多的細節,也沒有一塊完整的時間去把它寫出來?
DeepMind 新出的一款劇本寫作 AI——Dramatron 或許可以幫到你。
Dramatron 是一個所謂的「聯合寫作」工具,你給它一句話(log line)描述中心戲劇衝突(比如 James 在有 Sam 鬼魂出沒的後院發現了一口井),它就能自動寫出標題、角色、場景描述和對話。
可以說,Dramatron 和 ChatGPT 很像,但它的輸出更容易被改寫成電影指令碼。為了評估 Dramatron 的可用性,DeepMind 邀請 15 位劇作家和編劇參加了長達兩小時的使用者學習課程,旨在讓他們與 Dramatron 一起編寫劇本。其中一位劇作家與 Dramatron 合作編寫了 4 個經過大量編輯和重寫的劇本。加拿大 TheatreSports 公司已經改編了 Dramatron 參與創作的劇本並將其搬上了舞臺,收到了非常積極的評價。
據報導,劇作家們表示,他們不會使用這個工具來創作一部完整的戲劇,並發現人工智慧的輸出可能是公式化的。然而,他們認為 Dramatron 將有助於世界的構建,或者幫助他們探索改變情節元素或角色的其他方法。同時,人工智慧也有助於他們「產生更具創意的想法」。
和很多生成式 AI 工具一樣,Dramatron 的背後也有一個大型語言模型作為支撐。這個模型名為 Chinchilla,引數量為 70B,在 1.4T token 的 MassiveText 資料集上進行訓練。不過,DeepMind 在論文中表示,OpenAI 的 GPT-3 等大模型也可以用來部署 Dramatron。
有趣的是,在 Dramatron 曇花一現的試用頁面上,DeepMind 明確表示,要使用 Dramatron,你需要一個 OpenAI API key。
看到這兒,OpenAI 聯合創始人Wojciech Zaremba發來了賀電。
不過,這個試用介面很快就關閉了,我們現在只能看到關於 Dramatron 的論文和簡介。
Dramatron 詳解
Dramatron 是一個使用大型語言模型透過「分層故事生成( hierarchical story generation)」方法分層生成指令碼和劇本的系統。Dramatron 利用大型語言模型的優勢,將精心設計的 prompt(見附錄 E)和具有結構化生成能力的 prompt chaining 相結合,以實現整個指令碼的長程一致性。這一過程比「扁平的」序列文字生成更具有故事連貫性。
從本質上講,本文中的方法類似於分層神經故事生成,但生成的指令碼遠遠超過 1000 個單詞。故事的分層生成可以根據使用者提供的核心戲劇衝突摘要(也稱日誌行(log line))生成整個劇本(有時是數萬字)。從輸入日誌行開始,Dramatron 可以生成一個完整的劇本,包括標題、角色列表、情節(即帶有設定和節奏的場景摘要列表)、位置描述和對話(見圖 1)。使用者可以在分層生成的任何階段進行干預。透過這種方式,人類可以和 AI 在互動過程中共同編寫指令碼。這個方法適用於任何可以將 prompt 作為輸入,然後預測下一個 token 的大型語言模型。
下圖 2 展示了 Dramatron 在研究中用到的兩種敘事結構:
左圖是德國小說家、劇作家古斯塔夫 · 弗賴塔格(Gustav Freytag)的金字塔結構。他認為典型劇情由上升 (rising action)、高潮 (climax) 和回落 (falling action) 組成。
右圖是敘事學和比較神話學中的一種公式——英雄旅程(Hero's journey),又稱為單一神話(monomyth),主軸圍繞在一個踏上冒險旅程的英雄,這個人物會在一個決定性的危機中贏得勝利,然後得到昇華轉變或帶著戰利品歸返到原來的世界。
Dramatron 使用幾個硬編碼的 prompt(即 input prefix)來指導大型語言模型。Prompt engineering 是使用者控制或影響大型語言模型的常用方法。如下圖 3 所示,prompt 與使用者提供的之前大型語言模型生成的輸入和 / 或輸出相連線,這種方法被稱為 prompt chaining,是一種演算法 prompting。如上圖 1 所示,在整體結構的較低層次,prompt 與來自整體結構更高層次的輸出連結在一起。
更多細節請參見原論文。
論文連結:https://arxiv.org/pdf/2209.14958.pdf
參考連結:https://deepmind.github.io/dramatron/
https://twitter.com/DeepMind/status/1601237890708537344