半年來內鬥劇情跌宕起伏的企業 OpenAI,再次傳來人員變動的訊息。
The Information 報導,據知情人士透露,OpenAI 已經解僱了兩名涉嫌洩露資訊的員工。
一位是 Leopold Aschenbrenner,是 OpenAI 超級對齊團隊的研究員。
他是 OpenAI 首席科學家 Ilya Sutskever 的盟友,去年秋天,Ilya 參與了逼走 OpenAI CEO Sam Altman 的行動,但以失敗告終。
另一名被解僱的員工 Pavel Izmailov 在 OpenAI 從事推理相關的研究,也曾在超級對齊團隊工作過一段時間。
二人曾在團隊的多項工作中合作,包括這篇被廣泛關注的《Weak-to-Strong Generalization》(https://arxiv.org/abs/2312.09390)。
目前尚不清楚的是,這兩名被解僱的員工到底洩露了哪些資訊。
兩人的離職,是 Sam Altman 今年 3 月重新擔任董事會成員以來首次公開的人事變動。在此之前,OpenAI 的非營利性董事會領導了一項調查,為 Altman 在去年 11 月被短暫解僱前的行為開脫罪責。
回顧「宮鬥」事件的細節,我們或許可以發現一些端倪。在下臺之前,OpenAI 的員工在公司是否足夠安全地開發人工智慧的問題上存在分歧。
聯合創始人 Ilya Sutskever 是解僱 Altman 的董事會成員之一,董事會稱 Altman 缺乏坦誠。在 Altman 重新擔任 CEO 後,Sutskever 離開了董事會。自那場風波後,他基本上就沒有再出現在 OpenAI 的舞臺上。
但宮鬥事件後,Sam Altman 也沒有迴避過對 Ilya 的讚美,表示自己非常尊重並欣賞 Ilya,希望未來的工作生涯都能和他合作:「Ilya 並沒有看到通用人工智慧,但 Ilya 是人類的功臣。關於安全問題 Ilya 想了很多,也擔心了很多。」
「有人說 Ilya 看到了一些東西,可能是 AGI,這讓他內心不安。所以,Ilya 看到了什麼?」
Sam Altman:「Ilya 看到的不是 AGI,沒有人見到過 AGI,我們還沒有建造過 AGI。我確實認為我欣賞 Ilya 的眾多原因之一是他非常認真地對待 AGI 和安全問題,從廣義上講,這包括 AGI 將對社會產生的影響。隨著 OpenAI 不斷取得重大進展,Ilya 是陪伴我時間最久的人之一。在過去的幾年裡,他總談起這意味著什麼、我們需要做什麼來確保我們做的是對的,確保我們成功完成使命。所以 Ilya 並沒有看到通用人工智慧,但 Ilya 是人類的功臣,他想了很多,也擔心了很多。」
在公司內部,Aschenbrenner 也是 OpenAI 超級對齊團隊的負責人之一。該團隊由 Ilya Sutskever 去年夏天組建,目的是開發控制和引導高階人工智慧(即超級智慧)的技術,這些高階人工智慧可能會解決核聚變問題或殖民其他星球。
Aschenbrenner 19 歲時畢業於哥倫比亞大學,此前曾在未來基金(Future Fund)工作,這是 FTX 前 CEO Sam Bankman-Fried 創辦的慈善基金,旨在資助「改善人類長期前景」的專案。
顯然,Aschenbrenner 更傾向於「有效利他主義」(effective altruism)的立場,將解決人工智慧的危險性置於短期利潤或生產力利益之上。就在一年前,Aschenbrenner 加入了 OpenAI。
當初解僱 Altman 的幾位董事會成員也與有效利他主義有關。例如,Tasha McCauley 是 FTX 資助的慈善機構、有效利他主義中心的母公司 Effective Ventures 的董事會成員,Helen Toner 曾在以有效利他主義為重點的慈善專案工作過。而這兩個人,都在 Altman 11 月底重新擔任 CEO 的時候離開了董事會。
至於 Pavel Izmailov,此前就已經在個人主頁披露了未來計劃:2025 年秋季加入紐約大學任助理教授。
對於這則訊息,當事雙方和 Ilya 都沒有正式回覆。可能大家最關心的是, Ilya 會不會隨後離開 OpenAI?只能說很難預測。
參考連結:https://www.theinformation.com/articles/openai-researchers-including-ally-of-sutskever-fired-for-alleged-leaking