今年 2 月隨著 Sora 的橫空出世,大家再一次把目光聚集到 OpenAI。
不僅如此,去年亮相的 ChatGPT、GPT-4,更是把 AI 直接帶入到生成式人工智慧領域。作為一家引領科技潮流的機構,大家自然對其方方面面都產生好奇。
在最近的一次採訪中,美國知名播客 Lex Friedman 再次邀請 OpenAI 執行長 Sam Altman 進行專訪。專訪時間長達兩個小時,對話中 Sam Altman 透漏了幾個大家比較關心的問題。
Sam Altman 坦言,OpenAI 的「董事會風波」讓他很痛苦,甚至在一段時間內他都處於神遊狀態(fugue state),整個事件持續了好幾天,過程跌宕起伏,讓 Sam 倍感疲憊,Altman 表示這可能不是 OpenAI 最後一個高壓力時刻。整個事件中,Sam 高度讚揚了 Mira Murati 出色的表現。他認為 OpenAI 面臨的挑戰之一是必須擁有一個善於在壓力下運作的董事會和團隊。此外董事會增補了一些經驗更豐富的成員。
關於 Ilya,Sam Altman 表示他非常尊重並欣賞 Ilya,希望未來的工作生涯都能和他合作,並回應道:「Ilya 並沒有看到通用人工智慧,但 Ilya 是人類的功臣。關於安全問題 Ilya 想了很多,也擔心了很多。」
Sam Altman 還對馬斯克批評 OpenAI 的事情給出了自己的看法:「對於許多根本性的新事物來說,你開始在黑暗中摸索,並做出一些假設,結果會發現大多數假設都是錯誤的。我們進行了一些修補,最後的結果至少可以說是讓人瞠目結舌。」他認為馬斯克也會對此有很多共鳴。
談到 Sora 時,Altman 表示非常樂觀,但是將 Sora 理解為一個底層三維世界模型,是有點牽強的,此外,他還提到了 Sora 的侷限性。但當記者問到細節和資料時,Altman 沒有透漏更多有用的資訊。
在 Altman 眼中 GPT-4 還是很糟糕的,他預計 5 和 4 之間的差值將與 4 和 3 之間的差值相同。
訪談中,當記者問道 Q* 是個什麼專案時,Sam Altman 表示自己還沒準備好回答這個問題,但他透漏了 AI 系統下一步發展計劃是進行更好的推理。OpenAI 現在採用迭代部署的方式進行研發,而不是秘密進行直到完成 GPT-5 才公佈,他們的目標不是給世界帶來震驚性的更新,恰恰相反,OpenAI 希望自己研發的成果不會給人一種跳躍式的發展趨勢,如果那樣的話,OpenAI 會更加快速迭代地釋出他們的產品。Sam Altman 表示 GPT-5 之類的研究或許採用一種不同的釋出方式。
當記者問道GPT-5 的釋出日期時,Altman 回答自己並不知道。但他表示 OpenAI 在接下來的幾個月中會發布許多不同的東西,大家可以理解為 GPT-5,或者不是,又或者是比 GPT-5 稍差或好一點的模型。Altman 還分享了一些經驗總結,即自己會對科技行業中所有的或大部分前沿動態有一個好的全景圖,這樣才能能看到這些領域的連線或新的可能性。
採訪過程中,當記者問道籌集 7 萬億美元建造晶片廠的事時,Altman 否認了,表示自己沒說過這種話。之後他談到算力將成為世界上最珍貴的商品之一,而實現算力需要解決能源問題,Altman 認為核能是一個不錯的選擇。
Altman 對於打造比谷歌更好的搜尋引擎不感興趣,他覺得這很無聊。OpenAI 要做的不是簡單的複製谷歌搜尋,而是有更好的方法幫助人們查詢資訊、採取行動並綜合資訊。很多人都想做一個比谷歌更好的搜尋引擎,這是一個很難解決的技術問題,也是一個很難解決的品牌問題,更是一個很難解決的生態系統問題。Altman 認為世界不需要另一個谷歌,並坦言自己並不喜歡用廣告來盈利,他認為使用者使用付費 ChatGPT 不受廣告商的影響就可以了。
對於 GPT-5 ,Altman 透漏會變得更聰明,在各個方面都將表現更好。Altman 預測 5 到 10 年後人類完全可以用自然語言程式設計。OpenAI 也會重返機器人領域。
最後,Altman 談到了大家比較關心的問題 AGI,他表示 AGI 不是終點,而是更接近於一個里程碑式的開端。預計到在下個十年的末期,甚至可能更早,我們將擁有相當強大的 AI 系統。
關於這次採訪的內容,我們進行了編譯整理。
OpenAI 董事會風波
記者:帶我回顧一下從 2023 年 11 月 16 日星期四開始的那場 OpenAI 董事會風波吧,也許您也可以從 11 月 17 日星期五開始講述。
Sam Altman:這絕對是我一生中最痛苦的職業經歷,混亂、可恥、令人不安,還有很多其他負面的事情。不過期間也有好事發生,但是我當時太過焦慮,腎上腺素激增,以至於我無法停下來細品這些經歷。
但當我看見推特上人們談論我做過的所有重要的事情,以及我愛的和關心的人都給了我難以置信的支援。那種感覺太好了。
整個週末,除了一個很大的例外,我感受到了很多愛和很少的恨,儘管我不知道正在發生什麼以及將要發生什麼,這種未知的感覺也的確很糟糕。有時我確實認為這將是人工智慧安全史上發生的最糟糕的事情之一。
我也很高興這件事發生得相對較早。我認為從 OpenAI 成立到我們建立 AGI,一定會有某個時刻,會發生一些瘋狂和爆炸性的事情。即使現在似乎已經發生了,未來可能還會有更多瘋狂和爆炸性的事情發生。我認為,這場風波幫助我們建立了一定的韌性,併為未來的更多挑戰做好了準備。
記者:但你預感到的事情是權力鬥爭嗎?
Sam Altman:通向 AGI 的道路應該是一場巨大的權力鬥爭......
記者:所以你必須經歷這個過程,就像你說的,儘可能頻繁地迭代,弄清楚如何建立董事會結構、如何建立組織、如何擁有你所需要的人員、如何溝通,所有這些問題都需要努力解決,以便儘可能緩和權力鬥爭。
Sam Altman:是的。
記者:緩和。
Sam Altman:但此時此刻回想起來,這件事情真的讓人很不愉快,很困難、很痛苦。當我們又回到工作崗位,事情又如此的忙碌和緊張。之後有一段時間,一個月或者 45 天后,我都處於一種神遊狀態,我實在是太沒出息了,心情非常低落。
記者:只是在個人心理層面上嗎?
Sam Altman:是的。真的很痛苦,而且在這期間很難繼續執行 OpenAI。我只想「爬進山洞裡」恢復一下。
記者:嗯,你可能需要反思一下董事會結構、權力動態、公司的運營方式、研究和產品開發與資金之間的緊張關係,以便 OpenAI 在構建 AGI 方面具有很高的潛力,未來會以一種更有組織性、不那麼引人注目的方式來實現 AGI。因此,這種恢復有很多價值,既包括你作為領導者的個人心理方面,也包括董事會結構等所有混亂的東西。
Sam Altman:我確實學到了很多關於結構和激勵措施的東西,並且意識到在董事會之外我們還需要什麼。我認為現在發生的這件事在某種意義上是有價值的。我認為這可能不是 OpenAI 最後一個高壓力時刻,但這是一個壓力相當高的時刻,公司差一點就被毀掉了。我們思考了很多我們必須為 AGI 做好的其他事情,但思考如何建立一個有彈性的組織以及如何建立一個能夠承受世界上巨大壓力的結構,隨著我們越來越接近 AGI,我認為這越來越重要。
記者:你覺得董事會的審議過程深入、嚴謹嗎?
Sam Altman:我認為董事會成員總體上都是善良的人,而且我相信,在感到時間壓力或其他壓力的情況下,人們會理解並做出次優的決定。我認為 OpenAI 面臨的挑戰之一是我們必須擁有一個善於在壓力下運作的董事會和團隊。
記者:你認為董事會權力太大嗎?
Sam Altman:我認為董事會應該擁有很大的權力,但我們確實看到的一件事是,在大多數公司結構中,董事會通常對股東負責。有時人們會擁有超級投票權股份等等。
在這種情況下,我認為除非制定其他規則,否則非營利組織的董事會擁有相當大的權力。除了他們自己之外,他們並不真正對任何人負責。我們希望的是 OpenAI 董事會能夠向整個世界做出回應。
記者:因此宣佈了一個新的董事會。
Sam Altman:是的。一些新董事會成員擁有更多的董事會成員經驗,我想這會有幫助。
我們希望以名單的形式僱傭董事會成員,致力於讓一群人帶來非營利的專業知識、運營公司的專業知識、法律和治理專業知識,這就是我們試圖最佳化的目標。
記者:那麼技術知識對於董事會成員個人來說重要嗎?
Sam Altman:並非每個董事會成員都需要掌握技術知識,但肯定有一些成員需要,這也是董事會需要做的一部分。
記者:有趣的是,人們可能不瞭解 OpenAI 運營業務的所有細節,當然我也不瞭解。當人們想到董事會時,他們首先會想到你。他們會考慮,如果你認為達到了通用人工智慧,或者構建部署了一些非常有影響力的產品,那麼你與董事會的對話會是什麼樣的?在這種情況下,什麼樣的陣容才是合適的?
Sam Altman:這就是我認為肯定需要一些技術專家的原因。然後需要一些人去思考並解決一個問題:「我們如何才能以最幫助全世界人的方式部署它」,當然還需要持有不同觀點的人。
我認為你或我可能犯的一個錯誤是認為只有技術理解才重要,但還有更多關於如何影響社會和人們生活的問題。
記者:你提到了那個週末的一些低谷。對你來說,心理上的低谷是什麼?
Sam Altman:那的確是一段非常糟糕的時期,但是也有很多好事。我的手機不停地收到來自我每天一起工作的人的好訊息,這些人我已經十年沒有和他們說過話了。總的來說,這是一個非常痛苦的週末。這就像一場令人驚訝的公開戰鬥,我非常疲憊。董事會於週五下午進行了此項工作。我真的無法得到太多答案。我在想,董事會可以這樣做,但我如何能因禍得福。
我當時想,好吧,我目前在 OpenAI 的工作是,或者說曾經是,經營一家規模相當大的公司。我一直最喜歡的事情就是與研究人員一起工作。我當時想,是的,我可以去做一個非常專注的 AGI 研究工作。我對此感到很興奮。我當時甚至沒有想到這一切都會被撤銷。
記者:所以你當時已經接受了這件事情。
Sam Altman:是的,非常迅速。我經歷了一段困惑和憤怒的時期,但很快就想清楚了。
記者:當天晚上你睡得著嗎?
Sam Altman:睡得不好。奇怪的是,在那四天半的時間裡,我睡得不好,吃得不多,但仍然精力充沛。
記者:所以你接受了 OpenAI 這個「嬰兒」的死亡。
Sam Altman:我對新事物感到興奮。
記者:這是一個非常好的應對機制。
Sam Altman:然後到了週六早上,兩名董事會成員打電話說:「我們並不是有意破壞穩定。我們不想在這裡儲存太多價值。我們可以談談你回來的事情嗎?」我最初不想這樣做,但我想了想,我真的很在乎這裡的人、合作伙伴、股東。我喜歡這家公司。然後我想:「好吧,但這就是我需要的東西。」那個週末,我一直在思考並被告知,不僅僅是我,整個團隊都在努力保持 OpenAI 的穩定。
週日晚上,每隔幾小時,我就期待我們會完成任務,找到一種讓我回去的方法,讓事情回到原來的樣子。董事會隨後任命了一位新的臨時執行長,那是整個事情的最低谷的時刻。
記者:你對 Mira Murati 給予了高度評價,正如你在推文中所說,她在重要的時刻提供了幫助。或許我們可以稍微偏離一下主題。你欣賞 Mira 什麼?
Sam Altman:嗯,在那個週末,在一片混亂中,她做得很好,人們經常在危機時刻看到領導者的表現,無論好壞。但我真正看重領導者的一點是,在無聊的週二上午 9:46 以及日常的平凡苦差事中表現如何,某人在日常會議中的表現、他們所做決策的質量。這就是我所說的靜默時刻。
記者:這意味著大部分工作都是在日復一日的會議中完成的。只要專注並做出重大決定即可。
Ilya Sutskever
記者:下一個問題,關於 Ilya,他是否被秘密核組織挾持成人質了?
Sam Altman:沒有。
記者:普通的秘密組織呢?
Sam Altman:沒有。
記者:非秘密的核組織呢?
Sam Altman:都沒有。
記者:這在某種程度上正在成為一個梗了。你認識 Ilya 很長時間了。顯然,他是董事會風波的一部分。你現在和他是什麼關係?
Sam Altman:我愛 Ilya。我非常尊重 Ilya。我不知道我能否透露他現在的計劃,這個問題應該由他來回答。但我真的希望未來的工作生涯都能和他合作。他比我年輕一點。也許他的工作時間會更長一點。
記者:有人說 Ilya 看到了一些東西,可能是 AGI,這讓他內心不安。所以,Ilya 看到了什麼?
Sam Altman:Ilya 看到的不是 AGI,沒有人見到過 AGI,我們還沒有建造過 AGI。我確實認為我欣賞 Ilya 的眾多原因之一是他非常認真地對待 AGI 和安全問題,從廣義上講,這包括 AGI 將對社會產生的影響。隨著 OpenAI 不斷取得重大進展,Ilya 是陪伴我時間最久的人之一。在過去的幾年裡,他總談起這意味著什麼、我們需要做什麼來確保我們做的是對的,確保我們成功完成使命。所以 Ilya 並沒有看到通用人工智慧,但 Ilya 是人類的功臣,他想了很多,也擔心了很多。
記者:我過去和他聊過很多次。我認為當他談論技術時,他總是在做這種長期的思考。所以他並沒有考慮一年後會發生什麼,他考慮的是十年後的情況,是從首要原則出發去思考。
總結一下整個故事,你對董事會結構感覺良好嗎?
Sam Altman:是的。我對新董事會感覺很好。就 OpenAI 的結構而言,董事會的任務之一就是研究我們可以在哪些方面變得更加強大。我們希望首先讓新的董事會成員就位,但我們顯然在整個過程中學到了有關結構的教訓。我想,我沒有什麼非常深奧的東西要說。這是一次非常瘋狂、痛苦的經歷。這對我來說是一個預演,隨著風險越來越大,我們需要擁有健全的治理結構、流程和人員安排。我很高興它發生了,但這段經歷令人震驚、痛苦。
記者:這是否讓你在信任他人方面變得更加猶豫?
Sam Altman:是的。
記者:只是在個人層面上嗎?
Sam Altman:是的。我認為我是一個非常信任別人的人。我一直有一個人生哲學,那就是不要擔心所有的偏執,不用擔心邊緣情況。這場風波讓我措手不及,它絕對改變了我對人們預設信任和針對糟糕情況規劃的看法。
記者:我實際上不確定對於正在開發 AGI 的人來說,信任或不信任哪種模式最適合操作。但你如何讓周圍的人都在創造很酷的東西,同時也做出明智的決定?
Sam Altman:我對每天與我一起工作的人懷有極大的感激、信任和尊重,我認為被這樣的人包圍真的很重要。
馬斯克的訴訟
記者:我們共同的朋友埃隆・馬斯克起訴了 OpenAI。對你來說,他批評的本質是什麼?多大程度上有道理?多大程度上是錯的?
Sam Altman:我不知道這到底是怎麼回事。我們一開始只是想做一個研究實驗室,根本不知道這項技術會如何發展。因為這是七八年前的事了,我們很難回想起來當時的情況,但這是在語言模型大行其道之前。那時候我們還不知道什麼是應用程式介面(API),也不知道銷售聊天機器人的訪問許可權。那時候我們還完全不知道要實現產品化。所以我們就想,「我們只是想做做研究,並不知道要做什麼」。我認為,對於許多根本性的新事物來說,你開始在黑暗中摸索,並做出一些假設,結果會發現大多數假設都是錯誤的。
後來我們發現,我們需要做不同的事情,還需要更多的資金。於是我們說:「好吧,我們的結構不適合這樣做。我們該如何修補結構?」然後我們進行了一些修補,最後的結果至少可以說是讓人瞠目結舌。但我認為,我們是一步步走到現在的,一路上的每一個決定都是合理的。但這並不意味著,如果我們現在能回到 Oracle 時代,我的做法就會完全不同,但當時你並沒有 Oracle。但無論如何,埃隆真正的動機是什麼,我不知道。
記者:根據你的記憶,OpenAI 在博文中給出的回應是什麼?你能總結一下嗎?
Sam Altman:哦,我們只是說埃隆說了這一系列事情。這是我們的描述,或者說這不是我們的描述。這是對事情經過的描述。我們儘量避免情緒化,只說「這是歷史」。
記者:我確實認為埃隆對你剛才提到的一點有一定程度的誤解,那就是你們當時的不確定性。你們是一小群瘋狂談論 AGI 的研究人員,而所有人都在嘲笑這種想法。
Sam Altman:不久前,埃隆還在瘋狂地談論發射火箭,而當時人們都在嘲笑這種想法,所以我認為他會對此有更多共鳴。
記者:我確實認為這裡面有個人因素,OpenAI 和這裡很多了不起的人選擇與埃隆分道揚鑣,這其中有個人因素。
Sam Altman:埃隆選擇了分道揚鑣。
記者:你能具體描述一下嗎?選擇分道揚鑣?
Sam Altman:他認為 OpenAI 將會失敗。他想要完全掌控局面。我們希望繼續朝著現在已經成為 OpenAI 的方向前進。他還希望特斯拉能夠建立 AGI。在不同時期,他都希望將 OpenAI 打造成一家營利性公司,由他來控制,或者讓它與特斯拉合併。我們不想這麼做,所以他決定離開,這也沒什麼。
記者:所以你的意思是,這也是博文中提到的一點,他希望 OpenAI 能以同樣的方式被特斯拉收購,或者是類似的方式,或者是比與微軟合作更戲劇化的方式。
Sam Altman:在我的記憶中,這個提議是被特斯拉收購,讓特斯拉完全控制它。我很確定就是這樣。
記者:那麼 OpenAI 中的 Open 一詞對當時的埃隆來說意味著什麼?Ilya 曾在郵件交流中談到過這一點,還有其他類似的東西。當時它對你意味著什麼?現在對你又意味著什麼?
Sam Altman:說到回到 Oracle,我會選一個不同的名字。我認為 OpenAI 正在做的最重要的一件事,就是將強大的技術作為公益事業免費提供給人們。我們不在自己的網站上做廣告。
作為一項公益事業。我們不在免費版本上做廣告。我們不以其他方式盈利。我們只是說,這是我們使命的一部分。我們希望將越來越強大的工具免費提供給人們使用。我認為這種開放性對我們的使命非常重要。我認為,如果你給人們提供強大的工具,並教他們使用,或者甚至不教他們,他們就會自己想辦法,讓他們用這些工具為彼此創造一個不可思議的未來,這就是一件大事。因此,如果我們能繼續向世界提供免費或低成本的強大人工智慧工具,我認為這對我們完成使命意義重大。至於開源與否,我認為我們應該開源一些東西,而不是其他東西。這確實是一條很難有細微差別的戰線,但我認為細微差別才是正確的答案。
記者:所以他說,「把你的名字改成 CloseAI,我就撤訴」。這是否會成為關於名字的備忘錄的戰場?
Sam Altman:我認為這說明了埃隆對這起訴訟的重視程度,我認為這是一件令人震驚的事情。
記者:如果我說錯了,也許可以糾正我,但我不認為這起訴訟在法律上是嚴肅的。它更多地是想說明 AGI 的未來,以及這家目前處於領先地位的公司。
Sam Altman:我是說 Grok 一直沒有開源任何東西,直到人們指出這有點虛偽,然後他宣佈了 Grok 開源。我不認為開源與否是他的真正目的。
記者:好吧,我們來談談開源和不開源。我認為批評競爭對手是件好事。說點廢話,那很好。但友好的競爭與「我個人最討厭打官司」的競爭是不同的。
Sam Altman:聽著,我認為這整件事都不符合一個建造者的身份。我尊敬埃隆,他是我們這個時代最偉大的建築師之一。我知道他知道仇敵攻擊他的滋味,他這樣折騰讓我格外難過。
記者:是的,他是有史以來最偉大的建造者之一,有可能是有史以來最偉大的建造者。
Sam Altman:這讓我很難過。我想這也讓很多人難過。有很多人都仰慕他很久了。我在某次採訪中說,我很懷念以前的埃隆,結果收到了很多留言,「這正是我的感受」。
記者:我覺得他應該贏。他應該讓 X Grok 打敗 GPT,然後讓 GPT 打敗 Grok,這就是競爭,對每個人來說都很美好。但關於開放原始碼的問題,你認為是否有很多公司在玩這個創意?這很有趣。我認為 Meta 公司在這方面走在了前面,至少在真正開源模式的棋局中邁出了第一步。當然,這並不是最先進的模型,但開放 Llama 的原始碼後,谷歌正在考慮開放一個更小的版本。開源的利弊是什麼?你是否也有過這種想法?
Sam Altman:是的,我認為開源模型肯定會有一席之地,尤其是人們可以在本地執行的小型模型,我認為需求巨大。我認為會有一些開源模型,也會有一些閉源模型。這與其他生態系統並無不同。
記者:我聽所有的播客都在談論這起訴訟和所有這些東西。他們更關心的是,從非營利到盈利的先例。這給其他初創企業開了什麼先例?
Sam Altman:我非常不鼓勵任何初創公司考慮從非營利機構起步,然後再加入營利機構。我不鼓勵他們這麼做。我不認為我們會在這裡開創先例。
如果我們知道會發生什麼,我們也會這麼做的。
記者:你希望埃隆怎麼做?這種緊張,這種舞蹈,你希望是什麼?如果從現在起的 1、2、3 年後,你和他在個人層面上的關係也是如此,比如友誼、友好競爭,諸如此類。
Sam Altman:是的,我真的很尊敬埃隆,我希望在未來的幾年裡,我們能保持友好的關係。
記者:是的,我希望你們這個月能友好相處,在競爭中獲勝,共同探索這些想法。我想這是人才競爭或其他方面的競爭,但應該是友好的競爭。只要造出很酷的東西就行。埃隆很擅長於此,你也一樣。
Sora
記者:說到 Sora,我可以問一百萬個問題。首先,它太神奇了。從產品層面來說神奇,從哲學層面來說也很神奇。那麼,讓我從技術 / 哲學的角度問一下,你認為它對世界的理解比 GPT-4 多了還是少了?當你在這些 patch 和語言 token 上進行訓練時,世界模型是怎樣的?
Sam Altman:我認為所有這些模型對世界模型的理解都比我們大多數人認為的要多。因為它們對不理解或不正確的東西也很清楚,所以我們很容易看到它們的弱點,看穿它們的面紗,然後說「啊,這都是假的」。但這並不全是假的。只是有些有用,有些沒用。
我記得剛開始看 Sora 影片時,我會看到一個人在某個東西前面走幾秒鐘,然後把它遮住,然後走開,同樣的東西還在那裡。我就想「哦,這還真不錯」。或者有一些例子,在一個序列的許多步驟中,底層物理看起來表現得非常好,就像 「哦,這真是令人印象深刻」。但從根本上說,這些模型正在變得越來越好,而且這種情況還會繼續發生。如果你看看 DALL・E 1 到 DALL・E 2 到 DALL・E 3 再到 Sora 的發展軌跡,就會發現有很多人在每一個版本中都說它做不到這一點,做不到那一點,但看看現在的情況就知道了。
記者:嗯,你剛才提到的「遮擋」基本上是對三維物理世界的物理建模,足以捕捉到這些東西。也許你可以告訴我,為了處理遮擋,世界模型需要什麼?
Sam Altman:它在處理遮擋物方面做得非常好。但如果說它有一個很好的底層三維世界模型,這就有點牽強了。
記者:但你能透過這種二維訓練資料的方法達到目的嗎?
Sam Altman:看起來這種方法會走得很遠。我不想過多猜測它能突破哪些限制,不能突破哪些限制,但......
記者:你見過這個系統哪些有趣的侷限性?我是說你發過的一些有趣的限制。
Sam Altman:各種有趣的都有。我是說,貓咪在影片中隨機出現的額外限制。隨你怎麼選,但問題還是很多,弱點也很多。
記者:你認為這是方法的根本缺陷,還是模型更大、技術細節更好、資料更好,更多資料就能解決貓發芽的問題?
Sam Altman:我覺得兩者都是。我認為,這種方法似乎與我們的思維和學習方式有所不同。另外,我認為隨著規模的擴大,這種方法會越來越好。
記者:就像我提到的,LLM 有 token、文字 token,而 Sora 有視覺 patch,因此它能將所有視覺資料、各種視覺資料影片和影像轉換成 patch。訓練是否可以說是完全自監督的,是否有一些人工標註?人類在其中的參與程度如何?
Sam Altman:我們在工作中使用了大量的人類資料,但並沒有具體介紹 Sora 的方法。
記者:但不是網際網路規模的資料?人類如此之多,「很多」是一個複雜的詞,山姆。
Sam Altman:我認為在這種情況下「很多」是一個公平的詞。
記者:因為對我來說,我是一個內向的人,當我和三個人一起出去玩時,那就是「很多」人 —— 四個人,很多了。但我想你的意思不僅僅是……
Sam Altman:是的,有超過三個人致力於為這些模型標記資料。
記者:但從根本上來說,有很多自監督學習。因為你在技術報告中提到的是網際網路規模的資料。那是另一種美麗…… 就像詩一樣。所以有很多資料不是人類標註的,是這樣自監督的嗎?
Sam Altman:是的。
記者:然後的問題是,如果我們知道自監督的細節,網際網路上有多少資料可以用於這種有利於這種自監督的方式。您是否考慮過公開更多細節?
Sam Altman:我們有。你的意思是專門針對來源嗎?
記者:具體來源。因為這太有趣了,LLM 的同樣魔力現在可以開始轉向視覺資料嗎?需要什麼才能做到這一點?
Sam Altman:我的意思是,在我看來是的,但我們還有更多工作要做。
記者:當然。有什麼危險?為什麼擔心釋出系統?這可能存在哪些危險?
Sam Altman:坦白說,在釋出系統之前我們必須做的一件事就是讓它以一定的效率執行,從而達到人們想要的規模。我不想淡化這一點,那裡還有大量工作要做。但你可以想象深度造假和錯誤資訊帶來的問題。我們努力成為一家深思熟慮的公司,對我們向世界推出的產品深思熟慮,並且不需要太多思考就可以知道這種情況可能會變得糟糕。
記者:這裡有很多棘手的問題,你面臨著一個非常艱難的空間。你認為訓練人工智慧應該屬於版權法下的合理使用嗎?
Sam Altman:我認為這個問題背後的問題是,創造有價值資料的人是否應該透過某種方式獲得使用資料的補償,我認為答案是肯定的,只是還不知道答案是什麼。人們提出了很多不同的建議,我們嘗試了一些不同的模型。
記者:是的,這就是從 CD 到 Napster 再到 Spotify 的轉變。我們必須找出某種模型。
Sam Altman:模式發生了變化,但人們必須得到報酬。
記者:好吧,如果我們進一步縮小範圍,讓人類繼續做很酷的事情,就應該有某種激勵。
Sam Altman:在我擔心的一切中,人類會做出一些很酷的事情,而社會會找到一些方法來獎勵它。我們想要創造,我們想要成為有用的人,我們想要以任何方式獲得地位。我認為這不會有什麼結果。
記者:但獎勵可能不是金錢上的。這可能是其他的名譽和慶祝 ——
Sam Altman:或許可以透過其他方式實現財務方面的目的。再說一次,我認為我們還沒有看到經濟體系如何運作的最後演變。
記者:是的,但藝術家和創作者很擔心。當他們看到 Sora 時,他們會說「天哪」。
Sam Altman:當然。當攝影出現時,藝術家們也非常擔心,然後攝影成為一種新的藝術形式,人們透過拍照賺了很多錢。我認為類似的事情還會繼續發生。人們將以新的方式使用新工具。
記者:如果我們只看 YouTube 或類似的內容,你認為在未來五年內,其中有多少內容將使用 Sora 等人工智慧生成的內容?
Sam Altman:人們談論人工智慧在五年內將完成多少工作。他們的框架是,目前的工作中有多少比例將被人工智慧完成的工作完全取代?但我思考的方式不是人工智慧將完成多少百分比的工作,而是人工智慧在一段時間內將完成多少百分比的任務。
因此,如果你想到經濟中所有的五秒任務、五分鐘任務、五小時任務,甚至五天任務,人工智慧可以完成多少任務?
我認為這是一個比人工智慧可以做多少工作更有趣、更有影響力、更重要的問題,因為它是一種工具,可以在越來越複雜的水平上工作,在越來越長的時間範圍內完成越來越多的任務,並讓人們以一種更靈活的方式進行操作。所以也許人們的工作效率會更高。
在某種程度上,這不僅僅是一種量的變化,而且對於你可以記住的問題型別也是一種質的變化。我認為 YouTube 上的影片也是一樣的。許多影片,也許是大多數影片,都會在製作中使用人工智慧工具,但從根本上來說,它們仍然是由一個人思考、組合、完成其中的一部分來驅動的。有點指導和執行它。
記者:是的,這很有趣。我的意思是這很可怕,但想想很有趣。我傾向於相信人類喜歡觀察其他人類或其他人類。
Sam Altman:人類確實非常關心其他人。
記者:是的。如果有比人類更好的更酷的東西,人類會關心它兩天,然後他們就會回到人類。
Sam Altman:這似乎非常緊密。
記者:這就是國際象棋的故事,「哦,是的」,現在讓我們每個人都繼續下國際象棋。讓我們忽略房間裡的大象,相對於人工智慧系統,人類在國際象棋方面確實很糟糕。
Sam Altman:我們仍然參加比賽,汽車的速度要快得多。我的意思是有很多例子。
記者:是的。也許它只是以 Adobe 套件型別的方式提供工具,可以使影片之類的事情變得更加容易。我討厭站在鏡頭前,如果能找到一種不在鏡頭前的方法,我會很高興的。不幸的是,這還需要一段時間。生成面孔已經實現了,但是當它是特定的人與一般的人時,以影片格式生成面孔是很棘手的。
GPT-4
記者:讓我問一下有關 GPT-4 的問題。現在回想起來,ChatGPT 的第 3、4、5 可能就是歷史性的關鍵時刻。
Sam Altman:也許 5 將是關鍵時刻。我不知道。很難說期待。
記者:我們永遠不會知道。但對我來說,回顧過去,GPT-4、ChatGPT 非常令人印象深刻。那麼請允許我問一下,您對 GPT-4 、 GPT-4 Turbo 印象最深刻的功能是什麼?
Sam Altman:這是一件了不起的事情,但相對於我們需要達到的目標以及我相信我們將會達到的目標,還是糟糕的。
在 GPT-3 時代,人們會說,「哦, 這真太了不起了。這是技術的奇蹟」。確實如此,曾經如此。但現在我們有了 GPT-4,再看看 GPT-3,你會想,「這太可怕了」。我預計 5 和 4 之間的差值將與 4 和 3 之間的差值相同。
記者:GPT-4 最糟糕的地方是什麼?
Sam Altman:它能做的最好的事情是什麼?
記者:它能做的最好的事情是什麼?這些最好的事情的侷限性是什麼?
Sam Altman:我最近使用它的一件事是有點像集思廣益的夥伴。其中有一絲令人驚奇的東西。當人們談論它、它的作用時,他們會說:「哦,它會幫助我更高效地編碼。它幫助我寫得更快更好以及從將這種語言翻譯成另一種語言」所有這些令人驚奇的事情。
但是有一些關於創造性頭腦風暴合作伙伴的東西,「我需要為這個東西想一個名字。我需要以不同的方式思考這個問題。我不知道在這裡做什麼」,正是這些讓我看到了一些我希望看到更多的東西。
你可以看到的另一件事是,我可以被幫助完成長期任務,分多個步驟分解某些內容,也許執行其中一些步驟,搜尋網際網路、寫程式碼,無論如何,把它們放在一起。當這種方法奏效時(這種情況並不常見),那就非常神奇了。
記者:與人的反覆交流對我來說非常有效。這是什麼意思?
Sam Altman:當人類可以自己解決 10 步問題時,它可以更頻繁地來回迭代。有時它並不經常起作用。
記者:新增多個抽象層還是意味著只是順序的?
Sam Altman:兩者都是,將其分解,然後透過不同的抽象層將它們組合在一起。我不想低估 GPT-4 的成就,但我也不想誇大它。我認為我們正處於指數曲線上,我們很快就會回顧 GPT-4,就像我們現在回顧 GPT-3 一樣。
記者:也就是說,ChatGPT 是一個過渡,讓人們開始相信信念有所上升,而不是在 OpenAI 內部。
Sam Altman:當然。從這個意義上說,我確實認為這將是世界上很多人從不相信變成相信的時刻。這更多是關於 ChatGPT 介面的。透過介面和產品,我還指的是模型的後期訓練,以及我們如何調整它以對你有所幫助,以及如何使用它而不是底層模型本身。
記者:這些事情有多重要?底層模型和 RLHF 或類似性質的東西可以對其進行調整,使其對人類更具吸引力,對人類來說更加有效和富有成效。
Sam Altman:我的意思是它們都非常重要,但是 RLHF、訓練後步驟、從計算角度來看的事情的小包裝、我們在基本模型之上所做的事情的小包裝 儘管這是一項巨大的工作量,但這確實很重要,更不用說我們圍繞它構建的產品了。
從某種意義上說,我們確實必須做兩件事。我們必須發明底層技術,然後我們必須弄清楚如何將其變成人們喜歡的產品,這不僅僅是實際的產品工作本身,而是如何調整它並使其有用的整個其他步驟 。
記者:以及如何讓秤在很多人可以同時使用的情況下發揮作用。
Sam Altman:還有那個。但這是一件眾所周知的困難事。我們知道我們必須擴大規模。我們必須去做兩件以前從未做過的事情,我想說這兩件事都是相當重大的成就,然後是很多其他公司以前必須做的事情,比如擴大規模。
記者:從 GPT-4 到 GPT-4 Turbo,從 8K 到 128K token 的上下文視窗有何不同?
Sam Altman:大多數人大多數時候並不需要一直調到 128。儘管如果我們夢想到遙遠的未來,我們將擁有遙遠的未來,我們將擁有數十億的上下文長度。隨著時間的推移,你將輸入所有資訊、所有歷史記錄,它會越來越瞭解你,這非常棒。目前,人們使用這些模型的方式並沒有這樣做。人們有時會發布論文或程式碼儲存庫的重要部分,無論如何,但模型的大多數使用在大多數情況下都不會使用長上下文。
記者:我喜歡你的「我有一個夢想」演講。有一天,人們會根據你的性格或你一生的全部背景來評判你。那很有意思。所以這是你所希望的擴充套件的一部分,是一個越來越大的背景。
Sam Altman:我看過一次這個網際網路剪輯,我會把數字弄錯,但這就像比爾・蓋茨談論某些早期計算機上的記憶體量,也許是 64K,也許是 640K。其中大部分用於螢幕緩衝區。他只是看起來不太真誠,只是無法想象世界最終會需要計算機中的千兆位元組記憶體或計算機中的兆位元組記憶體。只需要遵循技術的指數,我們就會找到如何使用更好的技術。所以我現在真的無法想象有一天上下文長度會達到十億個。我知道我們會使用它,而且一旦我們擁有它,我們真的不想再回去了。
記者:是的,即使說 10 年後的數十億也可能看起來很愚蠢,因為它將是數萬億美元。未來將會出現某種突破,感覺就像是無限的上下文。但即使是 120,說實話,我也沒有把它用到那個程度,比如放入整本書或部分書籍、論文。你見過哪些有趣的 GPT-4 用例?
Sam Altman:我發現最有趣的事情不是我們可以談論的任何特定用例,事實上,它可以很好地完成很多事情。你可以使用 GPT-V,用它來幫助你寫程式碼、做搜尋、編輯論文。對我來說最有趣的是那些只是使用它作為工作流程開始的人。
記者:我在很多事情上也是這樣做的。我用它作為看書的閱讀夥伴。它幫助我思考,幫助我思考想法,尤其是當書籍是經典的時候。我發現它在涵蓋廣泛的主題上通常比維基百科要好得多。它在某種程度上更加平衡和更加細緻,激發了我比維基百科文章更深入的思考。我不太確定那是什麼。
當我開始使用 GPT 時,我對知識任務的擔憂之一是我通常必須在之後進行事實檢查,例如檢查它是否提出了虛假內容。你怎麼知道 GPT 可以提出聽起來確實令人信服的假東西?那麼你如何將其紮根於事實呢?
Sam Altman:這顯然是我們非常感興趣的領域。我認為即將推出的版本會變得更好,但我們必須繼續努力,今年我們不會全部解決。
記者:可怕的是,隨著情況變得更好,你會開始越來越不進行事實核查,對嗎?
Sam Altman:我對此有兩種看法。我認為人們對技術的使用比我們通常認為的要複雜得多。人們似乎真正理解 GPT 或任何這些模型都會產生幻覺。如果它是關鍵任務,你就必須檢查它。
記者:但記者似乎不明白這一點。我見過記者含糊地使用 GPT-4。
Sam Altman:在我想斥責記者的一長串事情中,這並不是我對他們最嚴厲的批評。
記者:嗯,我認為更大的批評也許是作為一名記者的壓力和激勵是你必須非常快地工作,所以(ChatGPT)是一條捷徑。新聞工作需要數天和數週的時間,並會獎勵深度新聞報導。此外,以平衡的方式呈現內容的新聞報導就像在讚揚人們的同時批評他們,批評是獲得點選的東西,捏造的東西也會獲得點選和完全錯誤描述的頭條新聞。我相信很多人都會說,「好吧,所有這些戲劇性的內容可能都會獲得很多點選」。
Sam Altman:可能是這樣。
記憶和隱私
記者:你賦予了 ChatGPT 擁有記憶以及關閉記憶的能力。我希望我也有這樣的能力,開啟還是關閉取決於自己。我認為酒精可以做到這一點,但效果不佳。
Sam Altman:我們的探索還處於早期階段,但我認為人們想要的,或者至少是我自己想要的,是一個能夠了解我並隨著時間的推移對我變得更有用的模型。這還處於早期探索階段,我認為還有很多事情要做。
記者:完成這項任務有多難?因為現在 ChatGPT 更像是記住一些小事實和偏好等等。難道你不想讓 ChatGPT 記住你在 11 月份經歷的戲劇性事件嗎?
Sam Altman:我不僅希望它記住這一點,我也希望它能夠整合其中的教訓,並提醒我將來應該採取哪些不同的做法或要注意什麼。我們從生活經驗中獲益,同樣我希望 AI 智慧體也能從這些經驗中獲益。想象一下,如果上下文長度達到數萬億,那麼我可以把我一生中與任何人進行過的每一次對話都放在那裡,比如我可以輸入所有電子郵件、所有資訊。每次我問問題時 ChatGPT 都會在上下文視窗中查詢,我認為這非常酷。
記者:是的,如果那樣的話會非常酷。此外人們非常擔心隱私問題。你怎麼看?
Sam Altman:對於隱私與 AI 之間的權衡,你、我可能有不同的看法。
記者:但公司對於使用者資訊的選擇應該有一定程度的透明度。就像公司正在收集你的所有資料,但他們會說使用資料是有充分理由的,但具體細節尚不透明。
Sam Altman:這完全正確。剛才聊到去年 11 月發生的事,我認為這是一件非常令人痛苦的事情,讓我在很長一段時間內無法工作。毫無疑問,那段時間我必須做的最艱難的事情就是繼續工作,儘管當時我處於震驚和痛苦之中,但我必須嘗試回到 OpenAI 並將各個部分拼湊起來,沒有人真正關心這一點。有一天早上我醒來,我想,這對我來說是一件可怕的事情。我想我可能會永遠感覺自己是受害者,或者我可以說這是我一生中接觸過的最重要的工作,我需要回到 OpenAI。有時我會在半夜醒來思考這件事,但我確實覺得有義務繼續前進。
記者:是的,這裡面會有一些揮之不去的東西。我擔心的是你提到的信任問題,對別人多疑,而不是相信每個人或大多數人,就像相信你的直覺一樣。這是一個棘手的問題。你似乎已經泰然處之了,學到了很好的教訓,這很好。我只是想問一些問題,您對 GPT 能做什麼、不能做什麼的一些直覺。因為它生成每個 token 分配大約相同的計算量。這種緩慢思考、順序思考的方法是否有創新?
Sam Altman:我認為將會有一種新的思維模式。
記者:它在架構上會與我們現在看到的 LLM 類似嗎?
Sam Altman:我可以想象很多方法來實現這一點。我認為這比你所提出的問題更重要,那就是,我們是否需要一種方法來進行更慢的思考,而答案不必馬上得到……
Sam Altman:我還沒準備好討論 Q*
記者:這確實讓我想起了 Q* 背後的神秘傳說。這個神秘的 Q* 是個什麼專案?也是在同一個核設施裡嗎?
Sam Altman:我們沒有核設施。
記者:擁有核設施的人都這麼說。
Sam Altman:我倒是希望有一個秘密的核設施,但是我們沒有。
記者:好吧。
Sam Altman:也許有一天會有的。
記者:未來某一天?好吧,人人都可以有夢想。
Sam Altman:OpenAI 並不是一個擅長保守秘密的公司,我們會被很多方方面面的訊息洩露所困擾,如果我們真的有核設施就太好了。
記者:那你能說一下 Q * 是什麼嗎?
Sam Altman:我還沒準備好討論這個問題。
記者:這樣的回答證明你們的研究很神秘,Sam。
Sam Altman:我的意思是,我們致力於各種研究。此前我們已經說過了,我們追求的重要方向是讓系統更好的推理,我們還沒有破解這方面的密碼,因此,我們興趣很大。
記者:是否會有這樣一個時刻,Q * 或者其他研究,會出現類似 ChatGPT 的飛躍。
Sam Altman:這是個好問題,你想問我是怎麼看待這件事的嗎?這很有趣。對我來說,這一切都是連續的。
記者:我們現在談論的研究趨勢,基本上是沿著指數斜率上升的。這是作為一個局外人的角度觀察到的。但對你來說,有沒有這種感覺?
Sam Altman:我們現在採用迭代部署的方式進行研發,而不是秘密進行直到完成 GPT-5,我們決定釋出 GPT-1、2、3 和 4,其中一個原因是我認為人工智慧和驚喜不應該搭配在一起。我認為,OpenAI 所做的最好的事情之一就是這個迭代策略,我們讓世界關注 AI 進步,認真對待 AGI。我認為這是非常好的。但是,像你和其他人說的,你們仍然感覺到這些發展趨勢出現跳躍的感覺,這讓我想到,也許我們應該更加迭代地釋出我們的產品。我不知道這意味著什麼,我沒有現成的答案,但我們的目標不是給世界帶來震驚性的更新,我們的目的正好相反。
記者:是的,更加迭代將會非常棒。我認為這對每個人來說都是有益的。
Sam Altman:這正是我們正在嘗試做的,這是我們非常明確的策略,我認為我們在某種程度上沒有達到這個目標。所以也許我們應該考慮以不同的方式釋出 GPT-5 之類的東西。
記者:是的,但人們更傾向於慶祝,例如慶祝生日。
Sam Altman:人們確實喜歡里程碑式的事物。我能理解,我想我們也喜歡里程碑式的研究。在勝利的基礎上開始下一件事是很有趣的。但是,我覺得我們在這方面有些許錯誤。
GPT-5 釋出時間未知,但會有新模型
記者:那麼 GPT-5 什麼時候釋出呢?
Sam Altman:我不知道。這是誠實的回答。
記者:哦,這是誠實的回答。如果是今年,眨兩次眼。
Sam Altman:今年我們將推出一款令人驚歎的新模型。我不知道該怎麼稱呼它。
記者:這就引出了一個問題,你們如何釋放這個東西?
Sam Altman:我們將在接下來的幾個月中釋出許多不同的東西。我認為,在我們釋出一個類 GPT-5 的模型(你可以理解為 GPT-5,或者不是,又或者比你對 GPT-5 的期望稍差或好一點的模型)之前,我們有很多其他重要的事情要先發布。
記者:我不知道對 GPT-5 有何期待,這讓我既緊張又興奮。不管它最終是否被稱為 GPT-5,我暫且稱為 GPT-5,在實現之前有哪些需要克服的挑戰和瓶頸?是在計算端嗎?還是技術方面?
Sam Altman:所有這些都有。什麼是最重要的?算力更大的硬體?還是其他東西。在我看來這些都是。我認為 OpenAI 做得非常好…… 引用 Ilya 的原話,就像是「我們將 200 箇中等大小的東西相乘,將會變成一個巨大的東西。」
記者:所以這是一種分散式的持續創新?
Sam Altman:是的。
記者:技術方面也是這樣?
Sam Altman:尤其是在技術方面。
記者:即使有詳細的技術實現也這樣?
Sam Altman:是的。
記者:就像你對每一個細節都做得很細緻,這在不同的或者完全不同的團隊中是如何運作的?這些中等大小的東西是如何變成一個巨大的 Transformer 的?
Sam Altman:有些人的想法是把所有事情放在一起,但大部分人需要先在腦海裡構建圖景。
記者:你的意思是說各個團隊、各個貢獻者應該試圖把握更大的圖景?
Sam Altman:在一個高層次上,是的。你當然不可能確切知道每一塊是怎樣工作的,但我認為有時候將視角拉遠,觀察整個圖景是有用的。這對於技術問題、商業創新都很重要,最終結果會以驚人的方式匯聚在一起,即使大多數時間你專注於某一區域的細節中,擁有對整個圖景的理解也會帶來意想不到的洞見。實際上,我可以分享一個非常有價值的東西,我曾經對科技行業中所有或大部分前沿動態有一個好的全景圖。透過這個全景圖我能看到這些領域的連線或新的可能性,如果我只深入一個領域,我就不可能有這樣的想法,因為我沒有所有的資料。而現在我不再有這種感覺了。
記者:你不再是過去的那個 Sam 了。
Sam Altman:可能吧,現在的工作和我過去的工作非常不同。
Altman 否認 7 萬億美元晶片計劃
記者:接下來我們聊聊前段時間你在 X 上表示要籌集 7 萬億美元建造晶片廠的事。
Sam Altman:我沒有發 X。我從來沒說過「我們籌集 7 萬億美元」之類的話。
記者:是別人說的嗎?
Sam Altman:是的。
記者:但我記得你說過「Fuck it, maybe eight」。
Sam Altman:好吧,一旦有什麼誤導資訊我會發個梗圖。
記者:一方面你會發梗圖,但另一方面錯誤資訊可能是別人基於某種洞察推測的。
Sam Altman:我認為算力將是未來的貨幣,它將成為世界上最珍貴的商品之一,我們應該大力投資以產生更多的算力。算力資源將是一個不同尋常的市場,現在人們考慮的大部分是手機晶片市場,世界上有 80 億人,可能有 70 億人擁有手機,或許是 60 億,我們以 60 億來說,假如他們每兩年升級一次手機,那麼每年市場上需求的手機晶片量是 30 億。如果晶片公司生產了 300 億個晶片,但按照人們的需求並不會賣出 10 倍多的手機,因為大多數人只有一部手機。
但算力不同,我們以價格來說,在其價格 X 時,世界會使用這麼多的算力,在價格為 Y 時,世界又會使用另一個數字的算力。如果算力真的很便宜,我會讓它整天閱讀我的電子郵件,給我的工作提出建議,或者嘗試治癒癌症,如果算力很貴,或者我們只會使用它來嘗試治癒癌症。
所以我認為世界將會需要大量的算力,實現這一過程面臨種種困難。其中能源是最困難的部分,此外建設資料中心也很難、製造足夠的晶片同樣也很難。但這似乎是事物的發展方向。我們想要的算力現在還很難推斷出來。
記者:如何解決能源問題?核能?核聚變?
Sam Altman:這就是我所相信的。
記者:誰來解決呢?
Sam Altman:我認為 Helion (一家美國聚變研究公司)做得最好,我很高興看到正在進行的核聚變競賽。我認為,核裂變也是相當驚人的,我希望世界能夠重新接受這一技術。這段歷史的結束對我來說真的很難過,希望我們能以一種有意義的方式回到過去。
記者:對你來說核裂變是不是困難的一部分?就像我們目前擁有的核反應堆一樣?因為很多人因為切爾諾貝利等事件而感到恐懼?
Sam Altman:我認為我們應該建造新的反應堆。我認為這個行業陷入停滯是一件很遺憾的事。
記者:我不知道你是否瞭解人類,人類似乎真的很害怕核裂變,我們必須贏得人們的支援並展示它的安全性。
Sam Altman:如果這樣的話,我很擔心 AI。
記者:我希望人工智慧可以幫助我們看到事物的真相,保持事物的平衡,讓人類知道什麼是真正的風險以及實際的危險是什麼。在這個領域與 Google、Meta、xAI 等公司競爭的利弊是什麼?
Sam Altman:我想我有一個非常直接的答案,也許稍後我能想出更多的細微差別,但好處似乎很明顯,那就是我們能更快、更便宜地獲得更好的產品和更多的創新,所有這些都是各大公司展開競爭的好處。但是如果我們不小心,可能會導致軍備競賽的加劇,這讓我感到緊張。
記者:你是否感受到軍備競賽的壓力?
Sam Altman:在某些方面是肯定的。我們花了很多時間討論優先考慮安全的必要性。我已經說過 AGI 的發展趨勢,你能想象在一個象限裡,一是 AGI 開始的時間線還是緩慢的,之後 AGI 發展的速度短暫起飛或快速起飛。我認為短時間 AGI 發展起飛慢是最安全的也是我最希望我們進入的區域。我想確保我們能慢速起飛。
記者:你與馬斯克在安全問題上存在一些分歧。
Sam Altman:至少埃隆說過他非常關心人工智慧的安全問題,並且真的很擔心,我認為他不會在不安全的情況下參加競賽。
在某些方面當然是肯定的。我們花了很多時間討論安全的重要性,我以前就說過。
記者:是的。但我認為,在這方面的合作對每個人都是有益的。
Sam Altman:這不是他擅長的東西。
記者:他以關心人類而聞名,讓人類從合作中受益。最後,我真心希望人效能戰勝一切。
Sam Altman:我在想,前幾天有人提醒我,在他超越傑夫・貝佐斯成為世界首富的那天,他在 X 上向傑夫・貝佐斯頒發了一枚銀牌。我希望隨著人們開始研究 AGI,這樣的事情會少一些。
記者:我同意。埃隆是我的朋友,他是一個有理想的人,也是有史以來最重要的人之一。
Sam Altman:埃隆的神奇之處在於,我非常尊重他。我想我們需要他。我們所有人都應該支援他,並需要他在接下來的階段作為領導者挺身而出。
谷歌和 Gemini
記者:在搜尋的幫助下,谷歌在過去的 20 年裡一直佔據著主導地位,在世界資訊獲取、互動方式等方面。目前谷歌感到非常緊張,但對於這個領域的所有人來說,他們都在思考,人們將如何獲取資訊?就像你說的,人們會以 GPT 為起點。那麼,OpenAI 是否會真正承擔起谷歌 20 年前開始做的這件事,也就是「獲取資訊」?
Sam Altman:我覺得這很無聊。我的意思是,如果問題是我們能否打造一個比谷歌或其他公司更好的搜尋引擎,那麼當然,我們應該去做,人們應該使用更好的產品,但我認為這太不值一提了。谷歌向你展示 13 個廣告,然後是 10 個藍色連結,這是尋找資訊的一種方式。但讓我感到興奮的並不是我們可以複製谷歌搜尋,而是也許有更好的方法可以幫助人們查詢資訊、採取行動並綜合資訊。事實上,我認為 ChatGPT 在某些用例中就是這樣,希望我們能讓它在更多用例中都能如此。
但我不認為「我們如何比谷歌更好地為你提供 10 個排名靠前的網頁」多有趣,還不如「我們如何幫助你得到你需要的答案或資訊?」,展開說就是:在某些情況下,我們如何幫助你建立答案或資訊;在另一些情況下,我們如何幫助你綜合答案或資訊;在另外一些情況下,我們如何幫助你找到答案或資訊?
很多人都想做一個比谷歌更好的搜尋引擎,這是一個很難解決的技術問題,也是一個很難解決的品牌問題,更是一個很難解決的生態系統問題。我認為世界不需要另一個谷歌。
記者:那麼將聊天客戶端(如 ChatGPT)與搜尋引擎整合在一起呢?
Sam Altman:那就更酷了。
記者:這很酷,但很棘手。如果你只是簡單地做,會很尷尬,因為如果你只是把它塞進去,也會很尷尬。
Sam Altman:正如你可能猜到的,我們對如何做好這一點很感興趣。這就是一個很酷的例子。LLM 和搜尋的交集,我想還沒有人破解過。我很想去做這件事,那一定很酷。
記者:廣告方面呢?你有沒有考慮過貨幣化?
Sam Altman:作為一種審美選擇,我有點討厭廣告。我認為,出於種種原因,廣告需要出現在網際網路上,讓它發展起來,但這只是一時的行業。現在的世界更豐富了。我喜歡人們為 ChatGPT 付費,並知道他們得到的答案不受廣告商的影響。我相信有一個廣告單元對 LLM 來說是有意義的,我也相信有一種方法能以不帶偏見的方式參與到交易流中去,但這也很容易讓人聯想到對未來的悲觀想象:你問 ChatGPT 一些問題,然後它會說「哦,你應該考慮一下購買這個產品」或者「你應該考慮一下去這裡度假」之類的。
我不知道,我們有一個非常簡單的商業模式,我喜歡它,我知道我不是產品。我知道我在付錢,這就是商業模式的運作方式。而當我使用 Twitter、Facebook、谷歌或其他偉大的產品時,我並不喜歡這種廣告支援的偉大產品,而且我認為在有人工智慧的世界裡,這種情況會變得更糟,而不是更好。
記者:我可以想象人工智慧會更好地展示最佳版本的廣告,其中的廣告都是你真正需要的東西。但這樣的系統是否總能讓廣告驅動所展示的內容呢?是的,我認為維基百科不做廣告是一個非常大膽的舉動,但這也使得維基百科的商業模式極具挑戰性。所以你的意思是說,從商業角度來看,OpenAI 目前的做法是可持續的?
Sam Altman:嗯,我們必須弄清楚如何發展,但看起來我們會弄清楚的。如果問題是我是否認為我們可以擁有一項偉大的業務,在沒有廣告的情況下滿足我們的計算需求,我認為答案是肯定的。
記者:嗯,很有希望。我也不想完全拋棄廣告......
Sam Altman:我不是這個意思。我想我是說我對廣告有偏見。
記者:是的,我也有偏見,只是總體上持懷疑態度。就介面而言,我個人對蹩腳的介面深惡痛絕,這也是為什麼 AdSense 剛問世時,相對於動畫橫幅或其他形式,是一個很大的飛躍。但我覺得,在廣告方面應該有更多的飛躍,而不是干擾內容的消費,也不是以一種大的、根本性的方式進行干擾,這就像你剛才說的,就像它會操縱真相來迎合廣告商一樣。
GPT-5 的躍升
記者:從 GPT-4 到 GPT-5 的飛躍中,你對哪些方面感到興奮?
Sam Altman:我很高興能變得更聰明。我知道這聽起來像是一個花言巧語的回答,但我認為真正特別的地方在於,它並不是在這個領域變得更好,而在其他領域變得更糟,而是全面發展。我認為,這才是超酷的。
記者:是的,有這樣一個神奇的時刻。我是說,你會遇到一些人,你會和一些人出去玩,你會和他們交談。你無法用語言表達,但他們懂你。這不是智力問題,而是別的東西,這大概就是我對 GPT 進展的描述。這並不是說,你可以指出,「看,你沒有理解這個或那個」,但這只是在多大程度上存在這種智力上的聯絡。你會感覺到,在你所做的蹩腳的表述提示中,你理解了問題背後更深層次的問題。是的,我也為此感到興奮。我是說,我們都喜歡被傾聽和理解。
這種感覺很奇怪。在程式設計方面,展望未來,你認為 5 到 10 年後人類會做多少程式設計工作?
Sam Altman:我的意思是,會有很多,但我認為形式會大不相同。也許有些人會完全用自然語言程式設計。
記者:完全用自然語言?
Sam Altman:我是說,沒有人會用程式碼程式設計。有些人是這樣。沒人再用打卡機程式設計了。我相信你能找到會程式設計的人,但你知道我的意思。
記者:是的,很少。我一直在找 Fortran 程式設計的人,連 Fortran 都很難找。我明白你的意思,但這也改變了我們所說的程式設計師的技能或傾向。
Sam Altman:改變了技能組合。至於改變了多少,我不確定。
記者:程式設計很難。就像如何縮小最後 1% 的差距?這有多難?
Sam Altman:是的,我認為在其他大多數情況下,最優秀的從業者都會使用多種工具。他們會用自然語言做一些工作,當他們需要用 C 語言寫一些東西時,他們就會這麼做。
記者:我們是否會在某個時候看到來自 OpenAI 的仿人機器人或仿人機器人大腦?
Sam Altman:會的。
記者:具身人工智慧對你來說有多重要?
Sam Altman:我認為,如果我們有了人工智慧,而在物理世界中完成事情的唯一方法就是讓人類去做,那就太令人沮喪了。所以我真的希望,作為這個過渡的一部分,作為這個階段性變化的一部分,我們也能獲得仿人機器人或某種物理世界的機器人。
記者:OpenAI 在機器人技術方面有一些歷史和相當多的工作經驗,但在倫理道德方面還做得不夠。
Sam Altman:我們是一家小公司。我們必須非常專注。另外,機器人在當時之所以難以普及,原因是錯誤的,但我們會在某個時候以某種方式重返機器人領域。
AGI
記者:你認為人類什麼時候能達到 AGI?
Sam Altman:我以前很喜歡猜測這個問題。後來我意識到,這個問題很不成熟。而且人們對 AGI 的定義也大相徑庭。因此,我認為更有意義的做法是,討論我們什麼時候才能建立起具有 X、Y 或 Z 功能的系統,而不是模糊地討論我們什麼時候才能跨過這一里程碑。AGI 也不是終點。它更接近於一個里程碑式的開端。不迴避這個問題,我預計到在下個十年的末期,甚至可能更早,我們將擁有相當強大的 AI 系統。我們看著它,會說:"哇,這真的很了不起。" 如果我們現在就能看到這麼強大的系統, 也許到那時我們已經完全適應了 AGI 生活。
記者:但如果你給阿蘭・圖靈展示 ChatGPT 3.5,90 年代的人或許會說:「這絕對是 AGI」,應該會有很多計算機專家會說:「這就是 AGI」。
Sam Altman:是的。但我不認為 ChatGPT 3.5 改變了世界。它也許改變了世界對未來的預期。它的確讓更多人認真對待 AI 相關的問題,並讓我們的生活走上了新的軌道。這一點也非常重要,我不想低估 ChatGPT 3.5 的作用。如果我發完 ChatGPT 3.5 就退休了,我可能會對我的職業生涯非常滿意,但我不認為在回首往事時,提到 ChatGPT 3.5 時說的是:「那是一個真正改變了世界的門檻」。
記者:所以對你來說,你正在追尋能改變世界的重大轉變?
Sam Altman:對我來說,這就是 AGI 的部分含義。
記者:這種轉變是奇點級別的轉變嗎?
Sam Altman:不,肯定不是。
記者:那麼對於重大轉變,類似網際網路、谷歌搜尋這種級別的,你覺得現在的轉變點是什麼?
Sam Altman:你感覺現在的全球經濟與我們推出 GPT-4 之前有什麼不同嗎?我覺得你的答案是:沒有。
記者:確實沒有。對很多人來說,它可能只是一個非常好用的工具。它能幫你解決很多問題,但感覺並沒有什麼顛覆性的改變。所以,你真正想說的是?
Sam Altman:我是說,人們對 AGI 有各種不同的定義。所以也許你的定義和我不同。但對我來說,我認為改變全球經濟應該是 AGI 的一部分。
記者:戲劇性的轉變時刻可能還等候在未來。對你來說,AGI 將會出做什麼令人印象深刻的事情?你是離 AGI 最近的人了。
Sam Altman:我不知道我對 AGI 的定義是否正確。但我認為,當一個系統能夠顯著提高科學發現的速度時,這就是一件大事。大多數真正的經濟增長都來自科技進步。
記者:我同意你的觀點,這也是我不喜歡近年來質疑科學的言論的原因。
Sam Altman:完全同意。
記者:實際的、可測量的科學發現。但哪怕只是看到一個 AI 擁有真正的直覺、科學直覺,那也是不可思議的。
Sam Altman:是的。
記者:你可能會成為構建 AGI 並能夠與它交流的人,你會和它討論些什麼?
Sam Altman:OpenAI 的研究人員肯定會在我之前和 AGI 交流。正如我們之前所討論的,這是一個錯誤的思維框架。如果有人對我說:「好的,Sam,我們完成了。這是一臺膝上型電腦,這就是 AGI。你可以去和它交流了。」第一個 AGI 不會是這樣的。我不認為我會問它:「給我解釋一下物理的大統一理論,物理的萬物理論。」不過這是我最想問它的問題。
記者:你可以先問判斷是或否的問題,比如:「這種理論存在嗎?它能存在嗎?」
Sam Altman:那麼,我以後先問這些問題。
記者:是還是不是。然後基於此,「那裡還有其他外星文明嗎?是還是不是?你的直覺是什麼?」然後你就問這個。
Sam Altman:不過,我的意思是,我不指望第一個 AGI 能回答這些問題,即使只用 「是 」或 「否」來回答。但如果它能,我會首先問你教我的問題的。
記者:也許你可以開始分配機率?
Sam Altman:也許吧。也許我們需要先發明更多的技術,測量更多的資料。
記者:哦,我明白了。只是沒有足夠的資料。如果它(能獲得足夠的資料),那麼 AGI...
Sam Altman:我的意思是,也許它的回答是:「你想知道這個物理問題的答案,我需要你製造這臺機器,進行這五次測量,然後告訴我......」
記者:在數學方面,也許 AGI 能證明一些定理。你對正式探索思維邏輯這方面也感興趣嗎?
Sam Altman:Emmm。
記者:誰首先建造了 AGI,誰就會獲得很多權力。你相信自己能承擔那麼多權力嗎?
Sam Altman:我會非常誠實地回答這個問題。我相信我或者其他任何人都不應該對 OpenAI 或 AGI 擁有完全的控制權。我認為需要一個健全的治理系統。比如去年我們董事會的所有「宮鬥」。我最初沒有提出反對,只是想著,「是的。這是董事會的意願,儘管我覺得這是一個非常糟糕的決定。」後來,我明確地反對了。我可以解釋我前後決策的細微差別,以及為什麼後來我覺得可以反對那個決定了。但正如許多人所看到的,儘管董事會在法律上有權解僱我,實際上它並沒有完全起效。這本身就是一種治理失敗。在這裡,我要為當時我的具體情況辯護兩句。我認為大多數人都會同意我說的。但經歷一系列抓馬的「宮鬥」事件之後,我很難直視著你的眼睛,對你說,「嘿,董事會還可以隨時解僱我。」我從來沒有獨裁 OpenAI 的想法。我從未有過,也從未想要過超級控制權。即使在所有這些瘋狂的事情之後,我仍然不想要。我一直認為公司沒有資格對涉及社會方面對問題做決定,我們真的需要政府來制定規則。
不過我又意識到,這意味著像 Marc Andreessen(著名矽谷投資人、Mosaic 瀏覽器開發者,因馬斯克起訴,OpenAI 釋出宣告,Marc 質疑其中不開源,但每個人都能從 OpenAI 構建的成果裡受益的觀點,嘲諷道:「怎麼不立刻把你的實驗室國有化、軍事化呢?」)這樣質疑 OpenAI 這樣的人,他們會說 OpenAI 被規則俘虜了。(規則俘虜:一種政治腐敗或政府行政失敗的現象。指政制定了某種公共政策或法案,在損害公眾利益的狀況下,使特定領域商業或政治上的利益團體受益)我不願意在這方面被誤解。這不是真的。時間將會證明為什麼這一點很重要。我為 OpenAI 做出了很多糟糕的決定,也有很多好的決定,我對過去的總體表現還是挺驕傲的。但我認為任何一個人都不應該有,我也不認為任何一個人將會有控制 AGI 的權力。現在思考這個問題還比較抽象,但 AGI 正在整個社會中以一種良好和健康的方式發生。但我認為任何一個人都不應該有控制 AGI 的權力,或者向 AGI 發展的方向。這樣的事情現在也在發生。
記者:感謝你的分享。你的想法很有洞察力,特別是你知道董事會在法律上有權解僱你,但人類可以操縱大眾,從而凌駕於董事會之上等等。但我認為這個故事還有更正面的版本:即人民仍然擁有權力,所以董事會也不能過於強大。這其中存在權力的平衡。
Sam Altman:權力平衡當然是好事。
記者:你擔心失去對 AGI 的控制嗎?很多人擔心的不是國家統治者,不是安全問題,而是 AI 本身存在的風險。
Sam Altman:就我目前的看法而言,這不是我最擔心的問題。曾經有一段時間我對此非常擔心。未來可能繼續成為我最擔心的問題。但現在這不是我最擔心的問題。
記者:你不擔心 AGI 失控是為什麼呢?因為還有很多其他事情需要你擔心,對吧?你會被 AGI 失控嚇到嗎?我們 ——
Sam Altman:當然。
記者:…… 可能會被嚇到?
Sam Altman:當然。說這不是我最擔心的問題並不意味著我們不需要關注它。我們需要努力解決這個問題。雖然這非常困難,但我們這裡有很棒的人在從事相關工作。還有很多事情需要被適當地處理。
記者:對你來說,現在要逃出這個「思維定式」很難吧,考慮到網上的言論...
Sam Altman:我們之前談到了戲劇性風險。那就是一種戲劇性風險。這可以改變人們對這個問題的普遍看法。有一大群非常聰明又懷有很大善意的 AI 安全研究人員過分關注這個問題。我認為他們沒有取得太多進展,但卻過分糾結於這個問題。我實際上很高興他們這麼做,這個問題需要被關注。但太過關注會使得很多其他非常重要的與 AI 相關的風險被排除在討論之外。
記者:鑑於 Sora 生成模擬世界的能力,如果你有過我們生活在由 AI 系統生成的模擬世界的想法,Sora 是否增加了你的信念?
Sam Altman:有點吧。我不認為 Sora 是最有力的證據。我認為每個人對我們能夠生成世界這一事實都或多或少增加了點信念吧,或者至少增加了對這個觀點的開放性。但我確信我們最終能夠做到類似 Sora 所預示的事情。它發生得比我想象的要快,但我猜那將不是一個重大的更新。
記者:是的。但事實是…… 而且可以預見,它會變得越來越好…… 你可以基於訓練資料生成全新的世界,用 AI 做到這一點似乎很容易。建立宇宙、一個或超現實或很真實的電子遊戲世界都將變得很容易。那麼先透過 VR 頭顯,再基於物理的層面上,迷失在那個虛擬世界中又會有多容易呢?
Sam Altman:最近有人和我討論過這個問題。有時候會有這些聽起來很簡單但令人迷惑的見解。舉個例子,比如平方根函式,四的平方根,沒問題。二的平方根,好的。很容易就能給一個孩子解釋清楚這些簡單的平方根的概念,透過觀察一些簡單的幾何也能看到,你再問負一的平方根是什麼?這和你提出的問題類似,令人迷惑的原因在於負一的平方根將你帶入了另一種現實。
你可以想出很多其他的例子,但我認為這個平方根運算子在很多關於新知識領域的想法都適用的。我認為有很多這樣的運算子。我認為,人們之所以會認為自己所贊同的模擬假說都比之前更有可能成真,其中有很多運營的成分。但對我來說,Sora 的工作並不是我最關心的五件事之一。
記者:我確實認為,從廣義上講,人工智慧將是通往另一波 C 級現實的最佳通道。
Sam Altman:這似乎是肯定的。
記者:你認為當我們仰望天空時,還有其他的外星文明,智慧的文明存在嗎?
人類智慧
Sam Altman:我覺得答案是肯定的。費米悖論非常令人費解。
記者:我覺得智慧不擅長處理這樣強大的技術。與此同時,我相信外面存在著大量的外星智慧文明,只是太空旅行真的很難。這也讓我思考智慧的本質。也許我們真的對智慧的本質視而不見,也許 AI 能幫助我們看清這一點。這並不像 IQ 測試和簡單的解謎那麼簡單,還有一些更重要的東西。那是什麼讓你對人類的未來充滿希望?
Sam Altman:我覺得過去的東西很多。我的意思是,我們只要看看人類在不長的時間裡做了些什麼,巨大的問題,深刻的缺陷,很多讓人超級羞愧的事情。但總的來說,非常鼓舞人心。給了我很多希望。
記者:我們一起向更美好的未來邁進。
Sam Altman:我其實很好奇,AGI 是更像某個單一的大腦,還是更像我們所有人之間的社會支架?你與你的曾曾曾祖父母的基因變化不大,但能力卻大不相同,所知道的也大不相同。這並不是因為生物學上的變化。你可能變得更健康了一些,這是因為有了現代醫學,你也吃得更好了,等等。但你所擁有的,是人類共同創造的。一個人是沒法兒製造 iPhone 的,一個人也沒法兒去發現所有的科學。但你可以使用它,這種共同創造給了你難以置信的能力。從某種意義上說,我們共同創造了這一切,這讓我對未來充滿希望。這是一件集體性很強的事情。
記者:是啊,我們站在巨人的肩膀上。當我們談到 AI 風險時,你提到有時你會擔心自己的生命安全。你想過自己的死亡嗎?你害怕死亡嗎?
Sam Altman:如果我明天就中槍了,而且我今天就知道了,我會說,「哦,那太可悲了。我想直到接下來將發生什麼,這很讓人好奇。」不過,大多數時候,我都會為自己的生命感到慶幸。
記者:我也是。現在這樣的生活太棒了,我可以享受到人類的偉大創造,我相信 ChatGPT 就是其中之一,還有 OpenAI 所做的一切。Sam,很榮幸能再次與你交談。
Sam Altman:很高興與你交談。感謝您的邀請。
參考連結:https://lexfridman.com/sam-altman-2-transcript