《麻省理工科技評論》獨家起底OpenAI:背離馬斯克創立初衷,理想主義被盈利壓力碾碎
儘管成立只有短短四年時間,OpenAI 已經成為世界領先的 AI 研究實驗室之一,在 AI 研究領域與谷歌人工智慧實驗室、DeepMind、微軟研究院、艾倫人工智慧研究所相媲美。
而且,因其由埃隆 · 馬斯克,以及投資家薩姆 · 阿爾特曼、天使投資人彼得 · 泰爾等傳奇人物共同創立,OpenAI 無疑還是矽谷大亨們的寵兒。
所有這些都賦予了 OpenAI 非凡的使命,它的目標是要成為第一個創造出通用人工智慧(Artificial General Intelligence,簡稱 AGI)的研究機構,讓機器具備人類的學習和推理能力。該實驗室的目的,是要確保這項技術被安全地開發出來,並造福全世界。
OpenAI 想成為 AGI 領域的領頭羊,為此,它精心打造了自己的形象。在這個由財富公司佔主導的科技領域,它以一個非營利組織的形象出現,其首次宣告就表示,它將以這樣的身份“為所有人帶去價值而非股東”,它的章程宣稱 OpenAI 的“主要信託責任是針對全人類的。”OpenAI 還表示,安全實現 AGI 是第一要義,如有其他研究組織能很快實現,它也會放下競爭並與其合作。曾經,這套說辭對投資者和媒體十分受用。
但是最近一年來,OpenAI 卻飽受批評,先是釋出最強 “通用”NLP 模型 GPT-2 而不開源;研發戰略缺乏變化和多樣性,單純依賴大量的計算資源投入迭代產品;再就是接受微軟 10 億美元投資,從而轉為“有限盈利” 企業......
圖 | 從左至右:Greg Brockman,聯合創始人兼技術長;Ilya Sutskever,聯合創始人和首席科學家;Dario Amodei,研究主任(來源:Christie Hemm Klok)
種種跡象表明,OpenAI 與 4 年前馬斯克所宣告的那個 “人工智慧非營利組織” 已然不同。
《麻省理工科技評論》記者 Karen Hao 透過在 OpenAI 辦公室的三天觀察,以及對離職和在職的員工、合作者、朋友和其他領域專家的近三十次採訪,揭開了 OpenAI 的真實面貌:OpenAI 似乎放棄了其先前的開放性和透明性承諾,當眾承諾一套,閉門經營的方式卻是另外一套。隨著時間的推移,它已經讓激烈的競爭和越來越大的資金壓力侵蝕了其透明、開放和合作的基本理念。
圖|OpenAI 懸掛在辦公室的公司徽標(來源:CHRISTIE HEMM KLOK)
值得一提的是,目前已不再參與 OpenAI 事務的馬斯克,在本報導推出後,發推文稱,“OpenAI 應該更加開放”,“所有開發高階 AI 的組織都應受到監管。”
圖|馬斯克日前 Twitter 上回應稱“我沒有控制權,對 OpenAI 的瞭解也非常有限。”(來源:Twitter)
許多被採訪者堅持匿名,因為他們沒有被授權發言或害怕遭到報復。他們的敘述表明,儘管 OpenAI 有著崇高的抱負,但它仍然致力於維護秘密,保護自己的形象,並要求員工效忠。
初衷:OpenAI 將會是敞開
圖|一間名為 “Infinite Jest” 的會議室,意為“無盡的玩笑”(來源:CHRISTIE HEMM KLOK)
OpenAI 於 2015 年 12 月 11 日亮相世界。它並不是第一個宣稱要建立 AGI 的組織,DeepMind 在 5 年前就已經提出這一目標,並於 2014 年被谷歌收購。但 OpenAI 似乎有所不同。
首先,它的標籤令人震驚:馬斯克、阿爾特曼和貝寶的聯合創始人彼得 · 泰爾等私人投資者最初為這個專案聯合注資 10 億美元。
大佬雲集的投資者名單引發了媒體瘋狂報導,初始員工的名單同樣亮眼:曾為支付公司 Stripe 負責技術業務的格雷格 • 布羅克曼將出任技術長;曾師從人工智慧先驅傑弗裡 · 辛頓的伊爾亞 · 蘇茨克維將擔任研究主管,還有七名剛從頂尖大學畢業或從其他公司挖過來的研究員將組成核心技術團隊。
其次, OpenAI 以非營利組織身份發表了一則宣告:“重要的是要有一個領先的研究機構,它可以優先考慮好的結果,而不是自己的私利。”“我們將大力鼓勵研究人員發表他們的研究成果,無論是論文、部落格文章還是程式碼,我們的專利(如果有的話)將與全世界共享。”
儘管 OpenAI 沒有明確表達批判的說法,但言外之意很明顯:DeepMind 等其他實驗室由於受商業利益的約束不能服務全人類。在這些機構向人類關上大門的時候,OpenAI 將會是敞開的。
在一個越來越私有化、專注於短期財務收益的研究領域,OpenAI 提供了一種新的方式來推動在 AI 技術最大問題上取得進展。“這是一個希望的燈塔。”機器學習專家 Chip Huyen 說,他密切關注著 OpenAI 實驗室的發展歷程。
早期加入 OpenAI 的人還記得當初的活力,興奮和目標感。當時的團隊透過緊密的關係網組建——而管理上則保持寬鬆隨意。每個人都相信在這樣一個開放的、扁平的組織結構中,任何人都可以提出自己的想法並展開討論。
馬斯克在建立一個集體神話上扮演了重要角色。皮耶特 · 阿布比爾是加州大學伯克利分校的一名教授,在 OpenAI 建立起的最初兩年,他和他的幾位學生一起在那共事,他回憶說:“我第一次感受到他的這種才能是在一次講話中,他說,‘我知道 AGI 也許很遙遠,但如果不是這樣呢?如果在未來 5 到 10 年內發生的機率有 1% 或 0.1%,那會怎麼樣?我們不是應該仔細考慮一下嗎?’他的話引起了我的共鳴。”
但是這種輕鬆隨意的想法也導致了後來某些方向上的模糊。2016 年 5 月,阿爾特曼和布羅克曼接待了時任谷歌研究員的達里奧 · 阿莫迪,後者告訴他們,沒人明白他們在做什麼,據《紐約客》當時發表的一篇報導稱,尚不清楚 OpenAI 團隊是否意識到這一點。布羅克曼對此表示:“我們現在的目標…… 是做當下最好的事情。”這仍然是模糊的答案。
儘管如此,阿莫迪還是在幾個月後加入了 OpenAI 團隊。
OpenAI 變了
到了 2017 年 3 月,也就是公司成立 15 個月後,領導層意識到是時候更加專注了。
於是布羅克曼和其他幾個核心成員開始起草一份內部檔案,為 AGI 鋪平道路。但這個過程很快暴露出一個致命缺陷:當研究小組研究這一領域的趨勢時,他們意識到在財務上保持非營利組織屬性是站不住腳的。該領域內其他組織用於取得突破性成果的計算資源大概每 3.4 個月翻一番。布羅克曼表示,“為了保持相關性”,他們顯然需要足夠的資本來匹配或超過這種指數級增長。
這就需要一種新的組織模式,既能迅速聚攏資金,又能以某種方式忠於自己宣揚的使命。
2018 年 2 月,馬斯克宣佈,由於在公司發展方向上存在分歧,他將離開 OpenAI。一個月後,阿爾特曼辭去創業加速器(Y Combinator)的總裁一職,成為 OpenAI 的 CEO。
2018 年 4 月,在公眾和大多數員工不知情的情況下,OpenAI 釋出了新的章程,檔案重新闡明瞭該實驗室的核心價值,但巧妙地改變了語言方式,以反映新的現實問題。除了承諾 “避免使用危害人類或過度集中力量的人工智慧或自動識別技術” 外,它還強調了對資源的需求。章程中提到:“我們預計需要調撥大量資源來完成我們的使命,但我們將始終努力採取行動,儘量減少員工和利益相關者之間可能損害廣泛利益的矛盾衝突。”
圖|Greg Brockman,格雷格 • 布羅克曼,聯合創始人兼 CTO(來源:CHRISTIE HEMM KLOK)
布羅克曼表示:“我們花了很長時間與員工進行內部溝通,從而讓整個公司都接受一套新觀念。即使我們改變了結構,使命和要做的事情也必須和原來一樣。”
這種轉型發生於 2019 年 3 月,OpenAI 透過設定 “利潤上限” 部門(回報達到投資的 100 倍之後才會分配利潤)來擺脫其非營利組織的屬性。此後不久,它宣佈微軟為其投資了十億美元(儘管它沒有透露這是微軟雲端計算平臺 Azure 的現金和信用分成)。
不難預料,此舉引發了一波指責,外界認為 OpenAI 背離了初衷。宣告發出後不久,一名使用者在 Hacker News 上發帖質問,怎麼實現 100 倍的利潤上限,他們寫道:“谷歌的早期投資者獲得了大約 20 倍的資本回報,貴公司的賭注是將擁有一個比谷歌回報更高數量級的公司結構…… 而且不造成‘權力不正當集中’?這如何實現?如果不依靠資源集中,那權力又為何物?”
圖 | 從左到右依次為:丹妮拉 · 阿莫迪,傑克 · 克拉克,達里奧 · 阿莫迪,傑夫 · 吳(技術人員),格雷格 · 布羅克曼,亞歷克 · 拉德福德(技術語言團隊負責人),克里斯汀 · 佩恩(技術人員),伊爾亞 · 蘇茨克維和克里斯 · 伯納(基礎架構負責人)(圖片來自:CHRISTIE HEMM KLOK)
此舉也讓許多員工感到不安,他們表達了類似的擔憂。為了平息內部混亂,領導層起草了一份常見問題解答,作為一系列受到高度保護的過渡檔案的一部分。有一個問題是:“OpenAI 可信嗎?”答案開頭是“可信”,後面跟了一段解釋。
《OpenAI 章程》是該公司的核心所在,它是所有實驗室研究的指向標。
該章程對 OpenAI 進行了全方位講解,布羅克曼會在午飯時當聖經一般背誦一遍。有一次背誦時,他突然說,“我不是隻在開會之前把它拿出來草草看幾眼。我花了很多時間一遍又一遍重複這些內容,直到我對它瞭如指掌。”
如何在開發更高階的 AI 功能的同時,確保人類生活的意義呢?“我們認為,AI 的作用應該是幫助所有人實現經濟自由,並幫助他們尋找前所未有的新機遇。”
如何才能實現 AGI 的公平分配?“我們的發展目標就是實現 AI 的實用性。但所有內容均取決於章程的規定。”
如何在確保安全的前提下實現 AGI 的優先發展?“我認為一定存在兩全其美的辦法,不過我們需要先了解章程中的內容。”
圖 | 2018 年 4 月 9 日 釋出的《OpenAI 章程》(來源:OpenAI)
布羅克曼認為,嚴格遵守章程是 OpenAI 有條不紊發展的根源所在。除個別人以外,所有全職員工都要在同一間辦公室工作,這樣的內部協調十分重要。
對於政策團隊負責人傑克 · 克拉克來講,這意味著他每天需要往返於舊金山和華盛頓之間。不過他樂此不疲,並對此表示十分認同。這其實取決於個人態度,他認為,和同事一起吃午飯可以幫助所有人保持統一步調。
在這種方式下,效果十分明顯:該公司的統一文化確實令人印象深刻。
員工工作時間很長,用餐和社交的時間也不忘討論工作;很多人都會參加同一個聚會,他們十分認同 “有效利他主義” 的理性哲學。他們引用機器學習的術語自嘲生活:“你的生活有何種功能?”“你想要最佳化什麼?”“生活只不過是函式罷了。”事實上,AI 研究人員都喜歡這麼調侃,熟悉 OpenAI 的人深知這一點,OpenAI 的員工將 AI 研究視為一種身份認同,而非一份工作。
布羅克曼在去年 11 月迎娶了交往一年的女友安娜,婚禮的背景鮮花擺放成了 OpenAI 的 logo 圖樣。Sutskever 擔任婚禮主持;機器人擔任花童。
去年年中,章程的內容又進行了調整,它不僅僅是人們茶餘飯後的談資了。OpenAI 改為上限盈利機制以後,領導階層很快對公司的薪資結構進行了調整,對每位員工實行任務責任制。
“統一技術型進階”中除了 “工程專業知識” 和“研究方向”的內容以外,最後一欄中還要求填寫員工對每一級的文化期望。第 3 級:“員工需瞭解並內化《OpenAI 章程》。”第 5 級:“確保所有團隊成員在專案研究過程中遵從章程規定。”第 7 級:“員工有責任擁護和改進章程內容,並積極帶動其他員工。”
噱頭式成果釋出
人們第一次瞭解 OpenAI 應該是在 2019 年 2 月 14 日,OpenAI 宣佈了一項新的研究成果:GPT-2 模型,只需按下一個按鈕,計算機就可以創造出行雲流水的文章。如果輸入《指環王》中的內容或麥莉 · 賽勒斯遭入室搶劫的新聞,計算機也可以立即創造出一段又一段同樣風格的短文。
不過這也出現了一個問題:研究人員表示,GPT-2 模型存在很大風險,目前還無法釋出。如果這種強大的 AI 模型用作他途,就會成為創造無數虛假資訊的有力武器。
科學家紛紛提出反對意見。有人認為 OpenAI 就是以此為噱頭作秀。GPT-2 模型還不夠先進,因此也不會構成任何威脅。如果它真的存在風險,OpenAI 為何急於釋出並妨礙群眾監督呢?
“OpenAI 似乎是在製造 AI 恐慌。”羅格斯大學的助理教授布里特 • 帕里斯說,他專門研究 AI 製造的虛假資訊。
圖 | Jack Clark,傑克 • 克拉克,政策總監(來源:Christie Hemm Klok)
去年 5 月,OpenAI 改變了之前的說法,並宣佈了 “階段式釋出” 計劃。接下來幾個月,OpenAI 推出的 GPT-2 模型功能越來越強大。
在此期間,OpenAI 還與數個研究組織合作研究 GPT-2 演算法濫用存在的潛在威脅,並制定了相應對策。最終,OpenAI 在 11 月釋出了 GPT-2 的完整程式碼,並表示“目前還沒有證據表明 GPT-2 會被用作他途。”
雖然人們一直指責 OpenAI 將 GPT-2 作為宣傳噱頭,但 OpenAI 予以否認。相反,它認為這是一次深思熟慮的實驗,經過一系列的內部探討和辯論才達成共識。
政策團隊在後續 6 個月釋出的部落格內容中提到了這一點,這些觀點都是大家開會一致決定的,當時我也在場。
“我認為章程絕對是我們取得成功的關鍵所在,”政策研究科學家 Miles Brundage 在談到谷歌文件時表示。
不過 OpenAI 在宣傳 GPT-2 時遵循了以前的模式,這也使廣大 AI 社群普遍感到擔憂。多年來,人們一直認為 OpenAI 在釋出研究成果時存在炒作嫌疑。評論家也不止一次地指責 OpenAI 釋出的研究成果有些誇大其詞。
基於這些原因,這個領域的許多人都傾向於與 OpenAI 保持一定的距離。
圖 | OpenAI 辦公室的牆上掛滿了研究成果的封面圖片(來源:Christie Hemm Klok)
不過 OpenAI 依然堅持投入資源重塑公眾形象。它告別了傳統的論文形式,將研究成果直接發表在了公司部落格中。它可以內部完成多媒體制作以及研究成果封面設計等諸多工作。它還可以獨立製作和 DeepMind 的 90 分鐘紀錄片 “AlphaGo” 相媲美的紀錄片。
目前 OpenAI 將主要精力放在了獨立製作上,布羅克曼和妻子安娜目前也進行了部分融資。
各種反對的聲音也需要透過內部討論解決。員工不滿於外界批評的聲音,領導層也擔心這會瓦解 OpenAI 的影響力,導致人才流失。
內部章程中重點提到了這一問題,並提出瞭解決問題的有效策略,其中 “政策” 部分提到:“為了擁有政府級別的決策影響力,我們必須發展成人們最信賴的 ML(machine learning,機器學習)和 AGI 研究機構。”“獲得 AI 研究界的廣泛支援不僅是塑造聲譽的有效方式,還可以擴大我們的影響力。”“策略”部分提到,“我們應將 ML 社群視為共同的利益相關者。言語衝突無法避免時,我們應調整說話的語氣和談論的內容。”
押注計算驅動,悶聲造車
GPT-2 引發如此激烈的反彈還有另一個原因。人們覺得 OpenAI 再一次違背了它早先的開放和透明的承諾。一個月後,營利性機構轉型的訊息傳出後,這項被擱置的研究讓人們更加懷疑:這項技術一直處於保密狀態,會不會是在為將來獲得專利做準備呢?
但很少有人知道,這不是 OpenAI 唯一一次選擇隱藏它的研究。事實上,它還對另一項研究完全保密。
關於實現 AGI 需要什麼,有兩種流行的技術理論。第一,所有必要的技術都已經存在,AGI 只需要解決如何縮放和組裝它們。第二,需要一個全新的正規化,目前人工智慧的主導技術,也就是深度學習還不夠。
圖 | Ilya Sutskever,伊爾亞 • 蘇茨克維,聯合創始人和首席科學家(來源:Christie Hemm Klok)
大多數研究人員介於這兩個極端之間,但 OpenAI 一直以來都幾乎完全處於第一個技術理論中。它的大多數突破都是來源於將大量的計算資源投入到其他實驗室。
布羅克曼和 Sutskever 否認這是他們唯一的策略,但實驗室嚴密保護的研究表明並非如此。一個名為 “前瞻”(Foresight) 的團隊進行了一些實驗,以測試他們能在多大程度上推動人工智慧能力的發展,方法是訓練現有的演算法,使用越來越多的資料和計算能力。對於領導層來說,這些實驗的結果證實了他們的直覺,即實驗室的全投入、計算驅動的策略是最好的方法。
在大約六個月的時間裡,這些結果都沒有向公眾公佈,因為 OpenAI 將這些內容視為自己的主要競爭優勢。員工和實習生被明確告知不要透露這些資訊,而離開的員工則簽署了保密協議。
直到今年 1 月,這個團隊才不動聲色地在人工智慧研究的一個主要開源資料庫上發表了一篇論文。那些經歷過保密工作的人不知道該如何應對這種變化。值得注意的是,另一篇來自不同研究人員的類似結果的論文已於一個月前發表。
(圖源:Christie Hemm Klok)
隨著時間的推移,領導層已經偏離了最初的信念——開放是建立有益的 AGI 的最佳方式。現在,保持沉默成為 OpenAI 研究人員的習慣,這包括在沒有交流小組明確許可的情況下,絕不與記者交談。
在我第一次去 OpenAI 辦公室之後,當我開始聯絡不同的員工時,我收到一封來自其公關主管的電子郵件,提醒我所有的採訪要求都必須透過她。我拒絕了她的請求,我說這樣做會破壞別人告訴我的事情的有效性。她就指示員工隨時向她彙報我的舉動。克拉克曾是一名記者,後來他在信中表揚員工在記者 “四處打探” 時,能把訊息捂得嚴嚴實實的。
OpenAI 的一名發言人在回應這一高度保密的宣告中,提到了該公司憲章的一部分內容。“我們預計,基於安全和安全問題,我們將減少在未來的傳統釋出,”該部分說,“同時增加共享安全、政策和標準研究的重要性。”
該發言人還補充道:“此外,我們的每一次釋出都要經過一個預估風險過程來權衡,我們希望緩慢釋出我們的結果,以瞭解潛在的風險和影響,然後再公之於眾。”
其中一個最大的秘密就是 OpenAI 正在進行的下一個專案。訊息人士對我說,它基於該公司 4 年來的研究成果:一個使用大量計算資源對影像、文字和其他資料進行訓練的人工智慧系統。
一個小團隊已經投入前期工作,並期望其他團隊最終會加入進來。在宣佈此事的公司全體會議上,不允許實習生參加。熟悉該計劃的人士給出了一種解釋:領導層認為,這將是最有希望達成 AGI 的方式。
推動 OpenAI 戰略的是達里奧 • 阿莫德,他曾是谷歌員工,現在擔任研究總監。
達里奧 • 阿莫德將實驗室的策略分為兩部分。他將第一部分比作投資者的“投資組合”,這一部分規定了該公司計劃如何達到先進的人工智慧能力。
OpenAI 的不同團隊正在進行不同的押注。例如,語言團隊的押注是一個理論,該理論假設人工智慧可以透過單純的語言學習延伸出對世界的重大理解。相比之下,機器人團隊提出了一個相反的理論,即智慧需要物理機體來發展。
就像在投資者的投資組合中一樣,並不是每一次押注都有同等的權重。但是出於科學嚴謹的目的,所有專案都應該在被拋棄之前進行測試。達里奧 • 阿莫德以 GPT-2 非常逼真的自動生成文字為例,試圖證明為什麼保持開放的思想很重要。他說:“純粹的語言是這個領域甚至我們中的一些人都有些懷疑的方向。”“但現在人們會說,‘哇,這真的很有前途。’”
隨著時間的推移,不同的賭注越押越高,它們將激發更強烈的工作熱情。然後它們會交叉糅合,目標是讓越來越少的團隊最終蛻變為 AGI 的單一技術方向。這正是 OpenAI 最新的絕密專案應該已經在進行的過程。
圖 | Dario Amodei,達里奧 • 阿莫德,研究主任(來源:Christie Hemm Klok)
達里奧 • 阿莫德解釋說,戰略的第二部分集中在如何使這種不斷髮展的人工智慧系統保證安全。這包括確保它們反映了人類的價值觀,能夠解釋其決策背後的邏輯,能夠在不傷害他人的情況下學習。
每一個致力於安全目標的團隊都試圖開發出可以在專案成熟時跨專案應用的方法。例如,可解釋性團隊開發的技術可以用於揭示 GPT-2 句子結構或機器人動作背後的邏輯。
達里奧 • 阿莫德承認,這部分策略有點隨意,較少建立在該領域的既定理論上,更多是建立在直覺上。他表示:“到某個時候我們將建造 AGI,到那時,我希望這些系統在世界上的執行是讓人滿意的。”“任何我目前感覺不太好的事情,我都會專門為之建立並招募一個團隊。”
在宣傳和保密之間,達里奧 • 阿莫德說這話的時候看起來還是很真誠的。失敗的可能性似乎使他不安。
“我們處在一個尷尬的境地:我們不知道 AGI 長什麼樣,”他說。“我們不知道什麼時候會實現。”然後,他小心翼翼地補充道:“任何一個人的心智都是有限的。我發現最好的辦法是聘請其他安全研究人員,他們通常會有不同的視野。我想要那種變化和多樣性,因為那是你捕捉一切的唯一方式。”
商業化壓力加劇
問題是,OpenAI 實際上幾乎沒有什麼“變化和多樣性”。
實驗室的一位發言人說,在 120 多名員工中,25% 是女性和非二元性別者。她說,執行團隊中有兩名女性,領導團隊中有 30% 是女性,不過她沒有明確指出團隊中的個人資訊。比如布羅克曼和阿爾特曼在內的四名高管都是白人。我在領英等網站上找到了 112 名員工,其中絕大多數是白人或亞裔。
圖|Daniela Amodei,丹妮拉 · 阿莫迪,人事運營主管(來源:CHRISTIE HEMM KLOK)
公平地說,這種多樣性的缺乏在 AI 領域中是很常見的。
去年,總部位於紐約的研究所 AI Now 釋出的一份報告發現,在主要人工智慧會議上,女性作者僅佔 18%,女性 AI 教授佔 20%,Facebook 和谷歌的女性研究人員數量分別佔 15% 和 10%。
OpenAI 的發言人說:“學術界和工業界肯定還有很多工作要做。而我們需要認真對待多樣性和包容性,目前我們正在與 WiML、Girl Geek 和學者專案等方面進行合作,不斷努力改進。”
事實上,OpenAI 已經在試圖擴充人才庫。2018 年,它啟動了面向少數族裔的遠端學者專案。儘管大家在工作中都表現的很積極,但第一批的八名學者中最後只有兩名成為了正式員工。拒絕留在 OpenAI 的最常見原因是:他們必須住在舊金山。娜嘉 · 羅德斯曾是 OpenAI 的一名學者,現在是紐約一家公司的首席機器學習工程師。
如果缺乏多樣性是人工智慧行業普遍存在的一個問題,那麼對於一家以 “讓每個人都能公平享有技術” 為使命的公司來說,多樣性則更是一個關乎生存的問題。現在的事實是,AI 行業缺乏最有可能被排擠在外的群體的代表。
正如布羅克曼經常提到的 OpenAI 的使命那樣,他們現在並不清楚該如何計劃把通用人工智慧的“好處分配給全人類”。領導層在談到這一點時總是含糊其辭,也沒有采取什麼行動來實施具體細節。
今年 1 月,牛津大學人類未來研究所與 OpenAI 的實驗室合作釋出了一份報告,提議分配一定比例的利潤來作為福利。但報告作者指出 “在執行方面存在重大未解決的問題”。“這是我在 OpenAI 時遇到的最大的問題,” 一位不願透露姓名的前僱員表示。
(圖源:Christie Hemm Klok)
羅格斯大學的布里特 • 帕里斯回應稱:“他們正試圖利用成熟的技術手段讓 AI 解決社會問題。但看起來他們沒能真正理解什麼是社會所需要的。他們只是覺得把目標定位在這裡有利可圖。”
布羅克曼表示認同,OpenAI 要實現其使命,技術和社會專業知識都是必不可少的。但他不同意從一開始就兼顧這兩方面。他說:“要如何將倫理道德和其他觀念引入其中?什麼時候把這些加入 AI 中,怎麼加進去?有一種策略是,從一開始就儘可能地把你需要的東西都塞進去,但我認為這種方法成功機率很低。”
他說,我們首先要弄清楚的是 AGI 到底應該是什麼樣子。只有瞭解了這個,才能夠“確保我們會理解它帶來的後果”。
去年夏天,在 OpenAI 轉向利潤上限模式和微軟注資 10 億美元后的幾周,公司領導層向員工保證,這些變化不會在功能上改變 OpenAI 的研究方式。微軟與實驗室的價值觀非常一致,並且都認為任何商業化的研究都是遙遙無期的;解決基本問題仍然是 OpenAI 工作的核心。
這些保證在一段時間內似乎是有效的,專案繼續和往常一樣進行。許多員工甚至不知道微軟向他們做出了什麼承諾。
但近幾個月來,商業化壓力開始加劇,能賺錢的研究聽起來不再那麼遙不可及了。Altman 私下與員工分享他的 2020 年實驗室願景時,傳達的資訊很明確:OpenAI 需要賺錢來做研究,而不是用研究來賺錢。
領導層表示,這是一種艱難但必要的權衡,因為 OpenAI 缺乏富有的慈善捐贈者,他們不得不做出這種權衡。相比之下,非營利組織 AI2 正雄心勃勃地推進人工智慧基礎研究,(至少在可預見的未來裡)它的資金來源是已故億萬富翁保羅 • 艾倫留下的自籌資金。
然而事實上,OpenAI 面臨這種權衡,不僅僅是因為它沒有太多資金支援,還因為它的戰略選擇,它試圖第一個碰觸到 AGI 領域。這種壓力迫使它做出的決定越來越偏離初衷。它急於透過大肆宣傳來吸引資金和人才維持自己的研究,以期保持住領域優勢,並追求一個計算量很大的戰略。這不是因為它是通往 AGI 的唯一途徑,而是因為它看起來是最快的途徑。
不過 OpenAI 仍然是人才和前沿研究的基地,它不乏真誠地為人類利益而努力工作的員工。換句話說,它仍然擁有最重要的元素,仍然有機會來改變現狀。
前遠端學者羅德斯表示,“在我看來,OpenAI 確實存在一些問題,”她遲疑地開始說,“其中一些可能來自它所面臨的環境;而有些來自它傾向於吸引的那類人,有些則來自它忽略的那類人。”
“但對我個人來講,他們是在做一些正確的事,”她說,“我能感覺到那裡的人非常認真努力。”
https://blog.csdn.net/weixin_42137700/article/details/104411919
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2676405/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 馬斯克起訴OpenAI和奧特曼馬斯克OpenAI奧特曼
- 《麻省理工科技評論》中國科技青年英雄榜正式釋出
- 告別理想主義,走向經驗主義 (轉)
- 程式碼,貓和理想主義
- OpenAI:馬斯克發起10億美元非營利AI研究專案OpenAI馬斯克
- 馬斯克批 OpenAI 違背初心;亞馬遜聯手 AI 初創公司同 ChatGPT 展開競爭 |思否週刊馬斯克OpenAI亞馬遜ChatGPT
- 阿里無人車發展路徑初現端倪, 開始重走 60 年前通用的「理想主義路線」?|評論阿里
- 黃仁勳新訪談:OpenAI是這個時代最具影響力公司之一,馬斯克19天創造工程奇蹟OpenAI馬斯克
- 為安全妥協,起底普京XP系統背後的資訊主權之爭
- 一個理想主義的程式設計師程式設計師
- 《麻省理工科技評論》:2020年全球“十大突破性技術”
- 《權力的遊戲》熱播效應:IP手遊背後的“速食主義”遊戲
- 專案經理對理想主義說“不”薦
- 馬斯克被OpenAI“踢出局”,從相識、相戀到分道揚鑣皆因AI馬斯克OpenAI
- 美、中、法:主導人工智慧的鬥爭與科技民族主義的興起人工智慧
- 被生活“藏”起來的科技:WIFIWiFi
- 馬斯克起訴OpenAI:他們做出了AGI還授權給微軟,這是對創始協議赤裸裸的背叛馬斯克OpenAI微軟協議
- 從開放到封閉,資金壓力正在侵蝕OpenAIOpenAI
- OpenAI 是怎麼“壓力測試”大型語言模型的?OpenAI模型
- 同程藝龍接連盈利:勝利與壓力並行並行
- 獨家 | 揭祕2021雙11背後的資料庫硬核科技資料庫
- 馬斯克炮轟微軟:OpenAI不是你的工具人馬斯克微軟OpenAI
- 騰訊遊戲前員工離職後創業遭起訴 被罰1940萬元遊戲創業
- 資料讀寫壓力大,讀寫分離
- 淺談《無人深空》的毒瘤玩家:「角色扮演」從何時起已如此脫離初衷?
- OpenAI不Open:閉門造車、融資不斷,創始人馬斯克:應該更加開放OpenAI馬斯克
- 錘子的理想主義手機:軟體從未如此重要
- 馬斯克連發三推,釋出退出OpenAI內情馬斯克OpenAI
- 被"MIT科技評論"稱讚強過谷歌Duplex,菜鳥Al客服厲害在哪裡?MIT谷歌
- 對話OpenAI聯合創始人:我們之所以成立盈利公司,是有原因的!OpenAI
- 2019理想之城全球科技創新策源城市分析
- 軟體壓力測試怎麼做?出具壓力測試報告軟體測評中心測試報告
- 釋放創造力:雲遊戲背後的產業革命遊戲產業
- 馬斯克開源的 grok-1 底層 Transformer 模型論文 《Attention is All You Need》馬斯克ORM模型
- 麻省理工科技評論MIT:2021中國數字經濟時代人工智慧生態白皮書(附下載)MIT人工智慧
- 幽默:如果OpenAI更名為ClosedAI,馬斯克將放棄訴訟OpenAI馬斯克
- 初衷不改
- 開源了我獨立開發的評論元件 SaaS ? ?元件