哈薩比斯:谷歌想創造第二個Transformer,還想把AlphaGo和Gemini強強聯合

机器之心發表於2024-08-20

「當一家人工智慧公司的執行長更像是電腦科學家而不是推銷員時,我感覺更舒服」。

圖片

對於 DeepMind 來說,2023 是充滿變化的一年。這年的 4 月份,谷歌宣佈將 Google Brain 和 DeepMind 進行合併,成立名為 Google DeepMind 的新部門。新部門將在保持道德標準的同時,引領突破性的 AI 產品研究和進步。

Google Brain 和 DeepMind——一個創造了 Transformer,一個創造了 AlphaGo、AlphaFold…… 兩個部門強強聯合,在 2023 年底打造出了對標 ChatGPT 的 Gemini。如今,在大模型排行榜 LMSYS Chatbot Arena 上,Gemini 經常名列前三。可見,二者的合併是有一定成效的。

圖片

那麼,Google DeepMind 今後的路要怎麼走?在與倫敦大學學院高階空間分析中心城市數學副教授 Hannah Fry(漢娜・弗萊)最近的一次對談中,Google DeepMind 執行長兼聯合創始人 Demis Hassabis(戴密斯・哈薩比斯)透露了公司的一些規劃,同時也就當前 AI 領域的一些問題發表了自己的看法。哈薩比斯:谷歌想創造第二個Transformer,還想把AlphaGo和Gemini強強聯合

哈薩比斯的核心觀點如下:

  • 從短期來看,AI 被過度炒作了,但從長期來看,它是被低估的。至於如何分辨 AI 領域哪些是炒作,哪些是可以實現的,哈薩比斯表示,除了做調研,你還得看看發表言論的人是什麼背景,有多懂技術,是不是去年才從別的方向轉到 AI 的。如果發表言論的人只是跟風,那 ta 貢獻好點子的機率就會像彩票開獎一樣。

  • DeepMind 和 Google Brain 的合併帶來了很多創新機會,他們的目標是發明下一個能夠推動 AI 前沿的架構,就像 Google Brain 發明了 Transformer 架構一樣。

  • 現有的學術基準測試已經趨於飽和,無法區分頂尖模型之間的細微差異。哈薩比斯認為,AI 領域需要更好的基準測試,特別是在多模態理解、長期記憶和推理能力等方面。

  • 現在很多模型都是從五、六年前發明的技術中產生的。所以,這些模型仍然缺少很多東西,會產生幻覺、不擅長長期規劃,無法主動完成複雜任務。針對這些問題,谷歌打算透過結合其在遊戲智慧體和大語言模型方面的專業知識,比如將 AlphaGo 在規劃和決策上的優勢與 Gemini 等多模態模型結合,開發具備更強智慧體行為的系統。

  • 在談到開源時,哈薩比斯表示他們已經開源了很多技術,如 Transformer、AlphaFold。但他認為前沿模型需要經過更多的稽核,在釋出一到兩年後才能開源,這種模式也是谷歌正在遵循的。谷歌會開源模型,但這些模型會比最先進的模型落後大約一年。哈薩比斯進一步談到,開源的主要問題在於它就像是走過一扇單向門,一旦釋出,就無法撤回。因此在開源之前需要非常謹慎。

  • AI 可能會在一些複雜的數學問題上取得突破,例如幫助解決著名的數學猜想或在國際數學競賽中表現出色。然而,目前的 AI 系統還無法自行提出新的數學假設或原創性理論。哈薩比斯認為,AGI 的一個重要測試標準將是其是否能夠自主生成像廣義相對論那樣的全新假設和理論。

  • 關於如何確保 AGI 能夠使每個人都受益,哈薩比斯認為不可能將所有偏好都包含在一個系統中,但是可以構建一套安全的架構,然後人們根據自己的偏好、使用目的、部署目的,決定 AI 系統可以用來做什麼,不能用來做什麼。

在看了這個採訪後,有人評價說,這個採訪讓他感覺很舒服,因為哈薩比斯聽起來更像是一個電腦科學家,而不是推銷員。還有人說,收購 DeepMind 並讓他們自由發展是谷歌做出的最好的人工智慧決策,希望谷歌能讓他們繼續自己的工作,儘可能不要打擾。

圖片

以下是機器之心整理的採訪內容。

AI 的發展出乎意料

弗萊:回想起來,當我們在 2017 年開始策劃這個播客時,DeepMind 還是一個相對較小、專注的 AI 研究實驗室,它剛被 Google 收購,並被賦予了在倫敦安全距離內進行自己獨特研究專案的自由。但自那以後,情況發生了巨大變化。自去年以來,Google 已經重新梳理了其整個架構,將 AI 和 DeepMind 團隊置於其戰略核心。

Google DeepMind 繼續追求賦予 AI 人類級別的智慧,即所謂的通用人工智慧(AGI)。它推出了一系列強大的新 AI 模型,稱為 Gemini,以及一個名為 Project Astra 的 AI 智慧體,能夠處理音訊、影片、影像和程式碼。該實驗室還在將 AI 應用於包括人類體內所有分子結構預測在內的多個科學領域中取得了巨大飛躍,不僅僅是蛋白質。2021 年,他們還分拆出一家新公司 Isomorphic Labs,致力於發現治療疾病的新藥。Google DeepMind 還在研究能夠透過強化學習自行學習執行任務的強大 AI 智慧體,並繼續著 Alpha Go 在圍棋遊戲中戰勝人類的傳奇。

我們今天請來了 DeepMind 聯合創始人、CEO Demis Hassabis。

我想知道,自從公眾對 AI 的興趣激增以來,你的工作是變得更容易還是更困難了?

哈薩比斯:我認為這是雙刃劍。困難之處在於,現在有太多的審查、關注,整個領域有很多噪音。我更喜歡人少一些的時候,我們可以更專注於科學。但從好的方面來看,這表明技術已經準備好以許多不同的方式影響現實世界,並以積極的方式影響人們的日常生活,所以我認為這也很令人興奮。

弗萊:你有沒有對公眾的想象力被迅速吸引感到驚訝?我想你預料到最終會是這個樣子,是嗎?

哈薩比斯:確實如此。我們這些人已經研究這個領域幾十年了,最終在某個時間點,公眾會意識 AI 將會變得多麼重要。但看到這一切真正實現,並且以這種方式發生,感覺還是有點超現實。我想,這確實是因為聊天機器人的出現和語言模型的發展,因為每個人都使用語言,每個人都能理解語言,所以這是公眾理解和衡量 AI 發展水平的簡單方式。

弗萊:我聽說你形容這些聊天機器人是「 超乎尋常得有效」,這是什麼意思?

哈薩比斯:我的意思是,如果回顧 5 到 10 年前,當時人們可能會認為要實現 AI 的發展,需要構建一些令人驚歎的架構,並在此基礎上進行擴充套件,而不必特別去解決像抽象概念這樣的具體問題。在 5 到 10 年前的許多討論中,人們認為需要一種特別的方式來處理抽象概念,因為大腦顯然就是這樣工作的。但是,如果給 AI 系統足夠的資料,例如整個網際網路上的資料,它們似乎確實能夠從中學習並泛化出一些模式,不僅僅是死記硬背,而是實際上在某種程度上理解它們正在處理的內容。這有點「 超乎尋常得有效」,因為我認為 5 年前沒有人會想到它會像現在這樣有效。

弗萊:所以,這是一個驚喜……

哈薩比斯:是的,我們之前討論了概念和 grounding—— 將語言置於真實世界體驗中,可能在模擬或機器人具身智慧中。當然,這些系統還沒有達到那個水平,它們犯了很多錯誤,它們還沒有一個真正的世界模型。但是僅僅透過從語言中學習,他們已經走得比預期中遠了

弗萊:我覺得我們需要解釋一下 grounding 這個概念。

哈薩比斯:Grounding 問題是 80 年代和 90 年代在像麻省理工學院這樣的地方構建的經典 AI 系統中遇到的一個問題。你可以把這些系統想象成巨大的邏輯資料庫,單詞之間互有聯絡。問題在於,你可以說「狗有腿」,這會在資料庫中,但當你給系統看一張狗的圖片時,它並不知道那一堆畫素點與那個符號有什麼關係。這就是 grounding 問題 —— 你有這種符號性的、抽象的表示,但它們在現實世界中,特別是在混亂的現實世界中真正意味著什麼呢?他們試圖解決這個問題,但從未完全成功。

而今天的系統,它們直接從資料中學習,所以從某種意義上說,它們從一開始就在形成那種聯絡,但有趣的是,如果它只是從語言中學習,理論上應該缺少很多你需要的 grounding,但結果卻是,很多 grounding 資訊不知怎麼地是可以推斷出來的。

弗萊:為什麼這麼說?

哈薩比斯:理論上講,因為這些最初的大型語言模型並不存在於現實世界中,它們沒有連線到模擬器,沒有連線到機器人,甚至最初也不是多模態的 —— 它們沒有接觸到視覺或其他任何東西,它們僅僅存在於語言空間中。所以,它們是在抽象領域中學習的。因此,它們能夠從那個領域推斷出關於現實世界的一些事情是很令人驚訝的。

弗萊:如果說 grounding 是透過人們與這個系統的互動而獲得的,這很有道理……

哈薩比斯:確實。所以可以肯定的是,如果它們在回答某些問題時出了錯,比如早期版本由於 grounding 缺失,在處理現實世界中狗的叫聲這樣的問題時回答錯誤。人們會透過反饋來糾正它們。這種反饋部分源自我們自己的現實知識。因此,一些 grounding 就是這樣逐漸滲透進來的。

弗萊:我記得我看到過一個非常生動的例子,關於「穿越(cross)英吉利海峽」與「步行穿越(walking across)英吉利海峽」的區別。

哈薩比斯:這個例子確實可以。如果它回答錯誤,你會告訴它這是錯誤的,然後它就不得不弄清楚 —— 你不能步行穿越英吉利海峽。

AI 是被過度炒作還是低估了?

弗萊:我要問你一點關於炒作的問題,你認為就現在來說,AI 是被過度炒作了,還是被低估了,或者只是在錯誤的方向上炒作?

哈薩比斯:一方面,從短期來看,AI 被過度炒作了。人們聲稱它能做很多事情,但實際上它不能,有很多創業公司和風險投資追逐一些瘋狂的想法,但其實這些想法還不夠成熟。

另一方面,我認為 AI 仍然被低估了。或許人們還沒有完全理解當我們達到 AGI 之後會發生什麼,責任是多麼大。

弗萊:你在這個領域已經幾十年了,對於這些創業公司和風險投資所追逐的東西,你很容易發現哪些是現實的目標,哪些不是。但其他人要怎麼分辨?

哈薩比斯:顯然你得做一些技術盡職調查,對技術和最新的趨勢有一些瞭解。同時,你也得看看發表言論的人的背景,他們有多懂技術,是不是去年才從別的方向轉到 AI 的?他們去年是不是在做加密貨幣?這些可能是一些線索,表明他們可能是在跟風,這並不意味著他們會有一些好點子,即使有也可能會像彩票一樣。

我認為,當一個領域突然受到大量關注時,這種情況總是會發生,然後資金就會隨之而來,每個人都覺得他們不能錯過。

這就創造了一種我們可以說是機會主義的環境,這與那些幾十年來一直致力於深度科技、深度科學的人有點相反,我認為後者才是我們接近 AGI 時應該繼續堅持的方式。

Gemini:谷歌大腦與 DeepMind 合併後的首個燈塔專案

弗萊:接下來談談 Gemini 吧。Gemini 在哪些方面不同於其他實驗室釋出的其他大型語言模型

哈薩比斯:從一開始,我們就希望 Gemini 能夠處理多種模態,所以它不僅能處理語言,還能處理音訊、影片、影像、程式碼等各種模態。我們之所以想要這樣做,首先是因為,我認為這是讓這些系統真正理解周圍世界並構建更好的世界模型的方法,這又回到了之前的 grounding 問題上。

我們也有一個願景,即擁有一個通用助手。我們做了一個叫 Astra 的原型,它不僅理解你正在輸入的內容,實際上還理解你所處的環境。這樣的智慧助手會更有用。所以我們從一開始就內建了多模態。這是另一件在那個時候只有我們的模型在做的事情,現在其他模型正在追趕。

我們在記憶方面的其他重大創新,比如長上下文,實際上可以記住大約一百萬個或兩百萬個 token。所以你可以給它《戰爭與和平》或者整個電影,然後讓它回答問題或在影片流中找到東西。

弗萊:在 Google I/O 上,你用了一個例子,說明 Astra 如何幫助你記住你把眼鏡放在哪裡了,對吧?但我懷疑這是否只是那些舊的 Google Glasses 的高階版本。

哈薩比斯:當然,谷歌在開發眼鏡裝置方面有著悠久的歷史,實際上可以追溯到 2012 年左右,遠遠領先於時代。但它們也許只是缺少這種技術,而智慧體或智慧助手可以真正理解你在說什麼。所以,我們對數字助理感到非常興奮,它可以隨時陪伴著你,瞭解你周圍的世界。當你使用它時,它似乎真的是一個很自然的用例。

弗萊:接下來我想稍微回顧一下 Gemini 的起源,畢竟它來自谷歌的兩個不同的研究部門。

哈薩比斯:是的,去年我們將 Alphabet 的兩個研究部門合併,即將 Google Brain 和 DeepMind 整合為了 Google DeepMind。我們稱它為超級部門(super unit),將整個公司的優秀人才聚集到了一個部門中。這意味著,我們將所有研究中獲得的最佳知識結合起來,尤其是在語言模型方面。

所以,我們推出了 Chinchilla、Gopher 等模型,並構建了 PaLM、LaMDA 以及其他早期模型。這些模型各有優缺點,所以我們將它們整合到了 Gemini 中,成為了部門合併後推出的首個燈塔專案(Lighthouse Project)。然後,另一件重要的事情是將所有計算資源整合起來,這樣就可以進行超大規模的訓練執行。我覺得這些很棒。

弗萊:從很多方面來講,Google Brain 和 DeepMind 的重點略有不同。我可以這樣說嗎?

哈薩比斯:谷歌各個部門顯然都專注於人工智慧的前沿,而且在個體研究層面已經有很多合作,但在戰略層面有所不同。隨著 Google DeepMind 的合併,我想把它描述成谷歌的引擎室(Engine Room),它執行得非常好。我認為,我們工作方式的相似之處要比差異多得多,我們將繼續保持並加強自身在基礎研究等方面的優勢。

比如說,下一個 Transformer 架構從何而來?我們想發明它。Google Brain 研究人員發明瞭如今流行的 Transformer 架構。我們將該架構與自己開創的深度強化學習相結合。我認為仍然需要更多創新。我支援這樣做,就像過去 10 年 Google Brain 和 DeepMind 團隊所做的那樣。這很令人興奮。

未來方向:將 AlphaGo 與 Gemini 相結合

弗萊:我想討論一下 Gemini,它的表現怎麼樣?與其他模型相比如何?

哈薩比斯:這個問題涉及到了基準我認為整個領域都需要更好的基準。目前存在一些眾所周知的學術基準,但現在它們已經飽和了,而且並沒有真正區分不同頂級模型之間的細微差別

在我看來,目前有三類模型處於頂端和前沿,我們的 Gemini、OpenAI 的 GPT 和 Anthropic 的 Claude。此外還有很多表現不錯的模型,比如 Meta、Mistral 等推出的 Llama 系列、Mistral 系列模型,它們擅長的任務各有不同。這取決於你要執行什麼型別的任務,編碼選擇 Claude、推理選擇 GPT,記憶、長上下文和多模態理解選擇 Gemini。

當然,各家公司還會繼續不斷改進模型。比如,Gemini 只是一個推出不到一年的模型。我認為我們的發展軌跡非常好,希望我們下次交談時,Gemini 可以站在最前沿。

弗萊:是的,大模型還有很長的路要走。這是否也意味著,這些模型在某些方面還不是很好。

哈薩比斯:當然。實際上,這是目前最大的爭論。現在很多模型都是從五、六年前發明的技術中產生的。所以,這些模型仍然缺少很多東西,會產生幻覺、不擅長規劃

弗萊:哪方面的規劃呢?

哈薩比斯:比如一些長期規劃,模型無法長期解決問題。你給它一個目標,它們無法真正為你採取行動。所以,模型很像被動問答系統。你提出問題,然後它們會給你某種回應,但卻無法為你解決問題。比如你想要一個數字助理幫你全程預訂義大利的假期,以及預定所有的餐館、博物館等事項。遺憾的是,它卻做不到這些事情。

我認為這是下一個時代的研究主題,我們稱它們為(更大程度上)基於智慧體的系統或者擁有類似智慧體行為的智慧系統。當然,這是谷歌所擅長的。谷歌過去構建了遊戲智慧體 AlphaGo 以及其他智慧體。所以,我們在做的很多事情是將成名的專案與新的大規模多模態模型結合起來,併成為下一代系統,比如 AlphaGo 與 Gemini 的結合

弗萊:我覺得 AlphaGo 非常擅長規劃

哈薩比斯:是的,AlphaGo 非常擅長規劃。當然,它只在遊戲領域。所以,我們需要將它泛化到日常工作和語言等通用領域。

弗萊:你剛才提到 Google DeepMind 現在已經成為谷歌的引擎室。這是一個相當大的轉變。那麼,谷歌是否在 AI 領域下了很大的賭注?

哈薩比斯:我想是的。我認為谷歌一直都明白 AI 的重要性。當 Sundar 接任執行長時,他就說過谷歌是一家 AI 優先的公司。我們在他任職初期就討論過這個問題,他認為 AI 有潛力成為繼移動網際網路之後的下一個重大正規化轉變,並且比以往發展潛力更大。

也許在過去一兩年裡,我們真的開始體驗到這意味著什麼,不僅僅是從研究的角度,而且在產品和其他方面也是如此。這非常令人興奮,因此我認為我們把所有人才協調起來,然後盡最大努力推動 AI 進展是正確的選擇。

弗萊:我們知道,Google DeepMind 非常重視研究和科學層面的東西。但隨著它成為谷歌的引擎室,是否意味著必須更加關心商業利益, 而不再是那種最純粹的東西。

哈薩比斯:是的,我們肯定更加關心在職權範圍內的商業利益。但實際上,我有以下幾件事要說。首先,我們將繼續 AlphaFold 相關的科學工作,幾個月前釋出了 AlphaFold 3。我們也在加倍投資於此。我認為這是 Google DeepMind 所做的獨特的工作。

你知道,甚至連我們的競爭對手都認為這會是通用 AI 產品。我們成立了一個新公司 Isomorphic Labs 來進行藥物研發。這些都非常令人興奮,一切都進展順利。所以我們會繼續這樣做。同時,我們在氣候預測和其他方面也做了很多工作。

我們擁有一支龐大的團隊,所以可以同時做多項工作。我們在構建我們的大型模型 Gemini 等。我們正在組建一支產品團隊,將所有這些驚人的技術帶到谷歌所在的所有領域。所以在某種程度上,這是我們的一個優勢,可以隨時插入我們所有的技術。我們發明的東西可以立即讓十億人用上,這真的很激勵人心。

另一件事是,現在我們需要為產品開發的 AI 技術與為純 AGI 研究目的所做工作之間的融合程度大大提高。五年前,你必須為一個產品構建一些特殊的 AI。現在你可以將主要研究分離出來,當然仍然需要做一些特定於產品的工作,但這可能只佔所有工作的 10%。

因此,實際上在開發 AI 產品和構建 AGI 之間不再存在矛盾。我想說,90% 是相同的研究計劃。所以,如果你推出產品並將它們推向世界,你會從中學到很多東西。人們也會使用它,這樣你會了解到很多資訊,比如你的內部指標與人們所說的不太相符,然後你可以進行更新。這對你的研究非常有幫助。

如何測試 GenAI 技術

弗萊:我想知道,將 AI 應用於科學所帶來的突破與向公眾釋出這些東西的正確時機之間是否存在矛盾。在 Google DeepMind 內部,大語言模型等工具被用於研究,而不是被視為潛在的商業產品。

哈薩比斯:我們從一開始就非常重視責任和安全。早在 2010 年以前,谷歌就將一些基本道德規範納入了其 AI 準則之中。我們一直與整個谷歌保持一致,並希望作為這個領域的領導者之一負責任地進行部署。

所以,現在開始推出具有 GenAI 能力的真實產品很有趣。實際上還有很多需要學習的地方,而且我們學得很快,這很好。對於當前技術而言,我們的風險相對較低,畢竟這些技術還沒有那麼強大。但隨著技術變得越來越強大,我們必須更加小心。

產品團隊以及其他團隊正在學習如何測試 GenAI 技術。這些技術不同於普通的技術,因為它並不總是做同樣的事情。這幾乎就像測試一個開放世界的遊戲,你可以嘗試用它做的事情幾乎是無限的。所以,弄清楚如何對它進行紅隊測試(Red Teaming)是很有趣的。

弗萊:所以,這裡的紅隊測試是你們相互之間進行對抗競爭?

哈薩比斯:是的。紅隊測試是指你從開發技術團隊中抽出一個專門的團隊來對技術進行壓力測試,並嘗試以任何可能的方式破解。你實際上需要使用工具來自動化測試,即使有成千上萬的人在做這件事,但與數十億使用者相比,這還不夠。

此外,我認為我們必須分階段進行,包括了實驗階段、封閉測試階段以及再次釋出,就像我們過去釋出遊戲一樣。所以你在每一步中都在學習。我認為我們需要做的更多的是,使用 AI 本身來幫助我們內部進行紅隊測試,實際上可以自動發現一些錯誤或進行三重篩選。這樣我們的開發人員和測試人員就可以真正專注於那些棘手的情況。

弗萊:這裡有一些非常有趣的事情,你處在一個機率更大的空間。所以,即使某件事情發生的可能性很小,但如果嘗試得足夠多,最終就會出錯。我想已經出現過一些公開的錯誤。

哈薩比斯:正如我提到的,我認為產品團隊已經習慣了各種測試。他們知道自己測試過這些東西,但具有隨機性和機率性。事實上,在很多情況下,如果只是一個普通的軟體,你可以說自己已經測試了 99.999% 的東西。然後推斷,這樣就足夠了。

但是,生成式系統並非如此。它們可以做各種各樣的事情,這些事情有點超出常規,有點超出你以前見過的範疇。如果某些聰明人或對手決定以某種方式來測試這些系統,就像駭客一樣。

這些系統可能以組合的方式存在,裡面包含了你之前對它說過的所有事情。然後它處於某種特殊狀態,或者記憶中充滿了特殊的東西,這就是它們需要輸出一些東西的原因。這裡很複雜,而且並不是無限的。所以有辦法解決這個問題,但又與推出普通技術存在很多細微差異。

弗萊:我記得你曾經說過,我想那應該是我第一次採訪你的時候,你提到實際上我們必須認識到這是一種完全不同的計算方式。你得從我們完全理解的確定性事物中抽身,轉向更加混亂的東西,比如機率性的。你覺得公眾是否也需要稍微改變他們對計算型別的看法呢?

哈薩比斯:是的,我同意。也許這也是我們需要考慮的另一件事,有趣的是,在你釋出某個系統之前,實際上可以釋出一份原則性檔案或類似的東西,來明確展示這個系統的預期用途,它設計用來做什麼?它有什麼用?它不能做什麼?我認為這裡確實需要某種認知,比如,如果你按這些方法使用它,你會發現它很有用,但不要嘗試用它來做其他事情,因為根本不會起作用。

我認為這是我們在某些領域需要做的事情,使用者可能也需要在這方面的經驗。實際上這很有趣,這可能是為什麼聊天機器人本身有些出人意料,甚至對於 OpenAI 來說,包括 ChatGPT 在內,他們也感到驚訝。我們也有自己的聊天機器人,我們也注意到這些機器人仍然存在缺陷,比如會產生幻覺等問題。

但我們沒有意識到的是,儘管存在這些缺陷,實際上聊天機器人仍然有很多非常好的使用場景。現在人們發現一些非常有價值的用途,比如總結檔案和長文件,寫郵件,填寫表格等。由於使用場景廣泛,即使存在一些小錯誤,實際上人們並不介意,人類可以輕鬆修正這些錯誤,並且能節省大量的時間。我猜這就是人們發現的令人驚訝的事情,當使用時,人們發現了這些有價值的使用場景,儘管這些系統以我們所知的各種方式存在缺陷。

關於開源:一旦釋出,就無法撤回

弗萊:這又引出了我想問的下一個問題,即關於開源的問題。正如你提到的,當事物掌握在人們手中時,就會發生真正非凡的事情。據我瞭解 DeepMind 在過去已經開源了許多專案,但隨著時間的推移,這種情況似乎有所改變。

哈薩比斯:是的,我們非常支援開源和開放科學。正如你所知道的,我們幾乎公開了我們所做的所有事情,比如 Transformer,又比如 AlphaGo 和 AlphaFold 這些研究都發表在《自然》和其他期刊上,並且 AlphaFold 也是開源的。透過分享資訊,使得技術和科學得以快速地進步。所以我們幾乎總是這麼做,我們認為這是非常有益的事情,這是科學的工作方式。

唯一的例外是,AI、AGI 和強大的 AI 具有雙面性。問題在於誰在使用,真正本著好意行事的科學家和技術人員,可以提出建設和批評性建議,這是社會進步最快的方式。但問題是,你如何同時限制不懷好意的人的訪問許可權,這些人可能會將相同的系統用於不良目的,誤用它們,比如武器系統,但這些我們不能提前預知。而且,通用系統本身可以被這樣重新利用。今天我們還能把握住,因為我認為這些系統還沒有那麼強大。

在接下來的兩到四年時間裡,尤其是當我們開始開發具有智慧體行為的系統時,如果這些系統被某些人誤用,可能會造成嚴重的危害。雖然我們沒有具體的解決方案,但作為一個社群,我們需要思考這對開源意味著什麼。

也許前沿模型需要經過更多的稽核,然後在釋出一年或兩年後才能開源。這種模式是我們正在遵循的,因為我們有自己的開源模型,稱為 Gemma。這些模型較小,不屬於前沿模型,因此它們的功能對開發者來說仍然非常有用,也易於在膝上型電腦上執行,且引數較少。這些功能目前已被很好地理解。不過,這些模型的效能不如最新的前沿模型,如 Gemini 1.5。我們最終可能採取的方法是,我們會有開源模型,但這些模型會比最先進的模型落後大約一年,這樣我們可以在公開場合真正評估使用者使用這些模型的情況,瞭解前沿模型的能力。

開源的主要問題在於,一旦釋出,就無法撤回。如果使用者以不當方式使用開源模型,與專有模型不同,開發者不能簡單地關閉它。一旦開源,就像是走過了一扇單向門,因此在開源之前需要非常謹慎。

弗萊:是否能夠將通用人工智慧(AGI)限制在某個組織內部的護城河之內。

哈薩比斯:這還是一個未解的問題。我們目前還不知道如何做到這一點,因為這是當我們開始討論高階別、類似人類水平的 AI 時需要考慮的問題。

弗萊:那中間層呢?

哈薩比斯:在中間層,我們有一些較好的想法來處理這些問題。例如,可以透過安全沙箱環境來測試。這意味著在遊戲環境或部分連線的網際網路版本中測試智慧體的行為。在這個領域以及金融科技等其他領域,已經進行了大量的安全工作。我們可能會借鑑這些想法,然後構建相應的系統,這就是我們測試早期原型系統的方式。但我們也知道,這些措施可能不足以限制 AGI,一個可能比我們更聰明的系統。因此,我們需要更好地理解這些系統,以便為 AGI 設計協議。到那時,我們將有更好的方法來控制它,可能還會利用 AI 系統和工具來監控 AI 系統的下一代。

如何監管 AI

弗萊:關於安全性的話題,許多人似乎認為監管這個詞就能解決所有問題。你認為監管應該如何構建?

哈薩比斯:政府正在加快對 AI 技術的瞭解和介入,這是一個積極的現象。我認為國際合作是必需的,特別是在監管、安全措施和部署規範等方面

隨著我們接近 AGI,我們需要認識到,由於技術發展迅速,我們的監管方式也需要靈活且迅速適應最新的技術發展。如果你在五年前對 AI 進行了監管,那麼你監管的將是一種完全不同的東西。今天我們看到的是生成式 AI,但五年後可能又會有所不同。

目前,基於智慧體的系統可能帶來最高風險。因此,我建議加強已經有監管的領域(如健康、交通等)的現有規定,使其適應 AI 時代,就像之前為移動和網際網路更新過監管一樣。

首先我會做的是保持關注,確保我們理解並測試前沿系統。隨著情況變得更加明朗,需要圍繞這些情況開始制定規定,可能在幾年後進行會更有意義。我們目前缺失的是基準測試,正確的能力測試,包括整個行業都想知道的,我們的能力在什麼點上可能構成重大風險。目前沒有對此的答案,我剛才說的基於智慧體的能力可能是下一個閾值,但目前還沒有公認的測試方法。

一個可能的測試是檢測系統是否具有欺騙效能力。系統中如果存在欺騙性,那麼它報告的其他內容都無法被信任。因此,測試欺騙性應該是首要考慮的新興能力。此外,還有許多其他能力值得測試,如實現特定目標的能力、複製能力等,目前已有不少相關工作正在進行。我認為這些基本上是政府機構正在發揮作用的地方。我認為對他們來說,大力推動這方面的工作會非常好,當然,實驗室也應該貢獻他們所知道的資訊。

弗萊:在你描述的這個世界中,機構處於什麼位置?即使我們達到了擁有能夠支援所有科學研究的 AGI 的階段,機構是否還能保留一席之地?

哈薩比斯:我認為有。在達到 AGI 的過程中,我認為這將是社群、學術界、政府和工業實驗室之間的合作。我真的相信這是我們達到這個最終階段的唯一方式。

哈薩比斯對 AGI 的測試標準

哈薩比斯:如果你問的是 AGI 出現之後的情況,我一直想構建 AGI 的原因之一是我們可以利用它開始回答一些關於自然、現實、物理和意識等方面的最大、最根本的問題。這取決於它採取何種形式,可能是人類專家與 AI 的結合。我認為在探索下一個前沿領域方面,這種情況還會持續一段時間。

目前這些系統還不能自己提出猜想或假設。目前來看,它們可以幫助你證明某些問題,能夠在國際數學奧林匹克競賽中獲得金牌,甚至可能解決著名的數學猜想,但它們還沒有能力提出像黎曼假設或廣義相對論這樣的假設。這一直是我對真正的通用人工智慧的測試標準 —— 它將能夠做到這些,甚至發明新的理論。我們還沒有任何系統,我們甚至可能不知道如何理論上設計能做到這些的系統。

弗萊:電腦科學家斯圖爾特・羅素曾向我表達了他的擔憂, 他擔心一旦我們達到了 AGI 的發展階段,我們所有人可能會變得只會享受無拘無束的奢華生活,並且沒有任何生活目的。這種生活雖然充滿了物質享受,但缺乏深層次的意義和目標。

哈薩比斯:這確實是一個有趣的問題。這可能超越了 AGI,更像是人們有時所說的 ASI。屆時我們應該擁有極大的資源,假設我們能確保公平、均等地分配這些資源,那麼我們將處於一個可以自由選擇如何行動的位置,而「意義」將成為一個重大的哲學問題。我認為我們將需要哲學家,甚至可能是神學家,以及社會科學家現在就開始思考這個問題。什麼能帶來意義?我仍然認為自我實現是重要的,我不認為我們所有人都只會沉浸在冥想中,也許我們會玩電腦遊戲。但即便如此,這真的是壞事嗎?這是一個值得探討的問題。

儘管 AGI 將帶來巨大的變革,例如治癒眾多疾病甚至所有疾病,解決能源和氣候問題,但它也可能讓我們面對一個更深層次的問題:生活的意義何在?就像人們攀登珠穆朗瑪峰或參與極限運動一樣,這些活動表面看似無意義,但實際上是人們對挑戰自我的追求。隨著 AGI 的發展,我們可能會在物質層面擁有一切,但隨之而來的是對生活意義的再思考。這個問題在科技發展的早期和晚期階段都被低估了,我們需要重新評估所謂的炒作以及它對我們未來的真正影響。

弗萊:讓我們回到關於 AGI 的問題。我知道你們的重大使命是構建能夠造福所有人的 AI。但你如何確保它確實使每個人受益?如何考慮所有人的偏好而不僅僅是設計師的偏好?

哈薩比斯:我認為不可能將所有偏好都包含在一個系統中,因為人們對很多問題無法達成一致。我想我們可能將擁有一套安全的架構,可以在其上構建個性化的人工智慧,然後人們根據自己的偏好、使用目的、部署目的,決定 AI 系統可以用來做什麼,不能用來做什麼。總的來說,架構需要確保安全,然後人們可以在架構的基礎上做一些變體、增量。

所以我認為,當我們接近通用人工智慧時,我們可能必須在國際上進行更理想的合作,然後確保我們在安全的環境中構建通用人工智慧

一旦我們完成了這個任務,每個人都可以擁有自己的個性化袖珍 API(如果他們願意)。

弗萊:好的。但我的意思是 AI 可能會出現一些不良行為。

哈薩比斯:是的,不良的新興行為、能力。欺騙就是一個例子。我們必須更好地理解所有這些問題。

有兩種情況需要擔心:一種是人類可能會濫用 AI;一種是人工智慧本身(隨著它越來越接近 AGI,它的表現卻偏離了軌道)。我認為這兩個問題需要不同的解決方案。是的,這就是當我們越來越接近構建 AGI 時,我們必須應對的問題。

回到你讓每個人受益的觀點,以 AlphaFold 為例,我認為如果 AI 藥物設計有效的話,我們可以在未來一兩年內治癒大多數疾病。然後它們可以轉化成個性化藥物,以最大限度地減少對個人的副作用,這與人的個人疾病和個人新陳代謝等相關。所以這些都是令人驚奇的事情,你知道,清潔能源、可再生能源,技術將會帶來巨大的好處,但我們也必須降低風險。

弗萊:你說你想要減輕風險的一種方式是,有一天你基本上會做科學版的「復仇者集結」?

哈薩比斯:當然。

弗萊:那麼,你怎麼知道什麼時候是合適的時間?

哈薩比斯:好吧,這是一個大問題。你不能太早這樣做,因為你永遠無法獲得一些反對者的支援。如今,你會看到一些非常有名的人說 AI 沒有風險。然後像 Geoffrey Hinton 這樣的人說存在很多風險。

弗萊:我想和你多談談神經科學。它對你正在做的事情還有多大啟發?因為我注意到前幾天 DeepMind 揭開了一隻具有人工大腦的虛擬老鼠的面紗,這有助於改變我們對大腦如何控制運動的理解。我記得我們曾談論了很多關於如何從生物系統中直接獲得靈感的話題,這仍然是您方法的核心嗎?

哈薩比斯:不,它現在已經發展起來,我認為我們已經進入了工程階段,例如大型系統、大規模的訓練架構。神經科學對此影響有點小。神經科學是思路來源之一,但當工程量大時,神經科學處於次要地位。因此,現在可能更多地是將人工智慧應用於神經科學。我認為,隨著我們越來越接近 AGI,理解大腦將是 AGI 最酷的用例之一。

弗萊:我想知道你是否也在設想將會有一些超出人類理解範圍的事情,而 AGI 將幫助我們發現、理解?

哈薩比斯:我認為 AGI 系統有可能比我們更能理解更高層次的抽象。我認為人工智慧系統可以有效地擁有任意型別的前額葉皮質,所以可以想象更高層次的抽象和模式,它能夠看到我們無法立即真正理解或記住的宇宙。

然後我認為,從可解釋性的角度來看,我們不能無限擴充套件我們自己的大腦,但理論上只要有足夠的時間、SPE 和記憶體,AGI 就能理解任何可計算的東西。

弗萊:你說 DeepMind 是一個為期 20 年的專案。您距離步入正軌還有多遠?

哈薩比斯:我們已經步入正軌。

弗萊:2030 年會實現 AGI 嗎?

哈薩比斯:如果它在未來十年內出現,我不會感到驚訝。

相關文章