對話OpenAI聯合創始人:我們之所以成立盈利公司,是有原因的!

大資料文摘發表於2019-05-05

對話OpenAI聯合創始人:我們之所以成立盈利公司,是有原因的!

大資料文摘出品

來源:Vox

編譯:熊琰、狗小白

世界上覆雜的人工智慧程式大多是由盈利組織開發,如Facebook,谷歌和谷歌姊妹公司DeepMind。

但在2015年,Elon Musk創立OpenAI打破了這個先例,這是一個非營利組織,其使命是進行尖端的人工智慧研究,並將人工智慧的好處帶給所有人。

這些年,這個年輕的組織也確實取得了一些令人印象深刻的成就。例如它開發了一款名為GPT-2的語言生成系統,新聞文章寫作方面可以和人類比肩。另外,其開發OpenAI Five在Dota2公開賽首次擊敗了世界冠軍。

前段時間,他們宣佈了重大的重組:他們將開始運營一家名為OpenAI LP的新公司(LP代表“有限合夥制”)。這意味著其非盈利組織的性質開始變更。

對話OpenAI聯合創始人:我們之所以成立盈利公司,是有原因的!


他們希望籌集數十億美元以用於人工智慧前沿領域的研究。但是一旦獲得資金,就會在一定程度上“損害”他們最初堅守的使命,因為,如果有了投資者,組織機構就有義務最大化這些投資者的利益,這與確保人工智慧的利益廣泛普及是不相容的。

關於此問題,Vox網站的專職作家Kelsey Piper對OpenAI的兩位聯合創始人Greg Brockman和Ilya Sutskever進行了採訪。

以下是採訪原文☟

Kelsey Piper:我閱讀了Open AI LP的公告,你已經表明你的目的是籌集數十億美元,以便在人工智慧方面取得進展。是什麼原因讓您做出這個決定的呢?Open AI LP所使用的經營結構是您所指定的嗎?

Ilya Sutskever:人工智慧在AGI方面取得進展需要大量資金。從計算能力(伺服器工作站之類的)到吸引和留住最優秀的人才都需要資金。在計算方面,具體而言,我們已經看到,獲得最佳結果所需的計算量每年都在快速增長。作為一個純粹的非營利組織,我們在籌款方面的能力已經達到了極限。

因此,我們需要一個允許我們籌集更多資金的組織結構,同時兼顧OpenAI最初的使命。

Greg Brockman:我們認為對於AGI來說,這是一個很好的組織結構,但是我們認為它不僅僅適用於AGI。還有其他可能的變革性技術即將出現,例如CRISPR。

重要的是這些技術得到了發展,所以我們希望看到這個組織結構也能被其他人所採用。

我們在2015年創立了OpenAI。我們花了大約兩年的時間才真正嘗試設計正確的結構 ,一年的時間來弄清楚我們認為的道路究竟是什麼,然後又花了一年的時間來弄清楚你應該如何做到這一點,同時還能仍然堅守最初的使命任務。

Kelsey Piper:隨著時間的推移,您對如何實現您的使命的理解已經逐漸發生了變化。顯然,很多人對OpenAI所做的事情的理解都是由一些早期的資訊形成的,但是這種方式並不能OpenAI本身對使命的理解。

很多人都認為你是要在AGI的開源過程中取得進展。

Greg Brockman:OpenAI的目的是確保當你擁有先進的技術時,未來會是美好的。我們的轉變來源於我們認識到,當這些東西變得非常強大時,每個人都能接觸到所有的東西,實際上並不能保證有一個好的結果。

你可以看看deepfakes。世界上有比deepfakes造假更厲害的嗎?

因此,我們的關注點已經轉移到考慮收益。技術發展的方式,通過正確的好創意,您可以產生巨大的價值利益。並且,它也具有集中財富的效果。如果AGI建成,一般情況下,它將比我們目前所見的財富集中度高出一百倍,一千倍,一萬倍。

Kelsey Piper:從某些角度來看,你已經有了一些阻力。當你開始減少出版論文等成果時,你可能會得到更多

如果您的使命任務是開源,公眾很容易判斷您是否仍然受到您的使命的激勵。我可以檢查你是否開源了所有研究內容。如果你的使命任務是分配利益,我沒有辦法評估你是否仍然致力於你的使命。

Greg Brockman:這也是我們沒有立刻轉變模式的原因。在某些方面,非營利組織對於擁有一個非常明確的工作方式的純粹任務非常有用。但是你知道可悲的事實是,在營利性方面,在非營利組織中做得還不夠。

所以現在的問題是,你如何才能做到兩者兼顧。

我們當前面臨最大的問題是“代理人”模式的管理。另外,AGI不應該只是矽谷的事情。這是可以改變世界的技術。那麼如何獲得正確管理模式?這才是我們想要關注的重點!

Kelsey Piper:我覺得挺驚訝的是,讀了一些對OpenAI有限合夥制的評論文章,大部分都不相信你還打算開發AGI。大部分評論表示,“那就是個美麗的神話。”這也確實是評論裡的一個重要觀點。

而且評論中缺乏這樣的觀點:“好吧,我相信你現在有個重要的機會,值得考慮一下,你還打算開發AGI,我願意相信你。”

Greg Brockman:這個觀點我還能再加深一層:人們不僅僅是不相信我們可以開發出AGI,他們甚至不相信我們對開發AGI抱有信念。

Kelsey Piper:許多初創公司在他們的網站上都掛著些“改變世界”的口號,但實際上只是說說而已。你們說,“我們將開發AGI”…

IIya Sutskever:我們將朝著這個方向盡我們所能去努力,同時也得保證我們的方式不會玩死自己。精確預測到底得花多久實現是非常困難的,但我認為過不了太久。

Greg Brockman:我覺得看看技術變革史挺有意思的。你看過C. Clarke寫的《未來簡介》(Profiles of the Future)嗎?

Kelsey Piper:應該沒看過。

Greg Brockman:這本書寫得很超棒。Clark在書裡試圖從歷史的軌跡裡預測未來世界的樣子。回溯過飛行、宇宙宇航、原子彈的發明、白熾燈的發明,看著這些歷史,作者問道:“這裡面是什麼趨勢呢?”

當人們看到這些變革出現的時候作何感想呢?白熾燈的發明引人注目,因為愛迪生在發明它的一年前就宣稱了他將這麼做。他說,“我們要發明電燈,一定超棒!” 

於是英國議會成立了一個傑出的專家小組去查驗愛迪生的發明。他們回來後表示,這東西純屬騙局,不可能實現的,燃氣公司不會受影響的。但一年之後他成功了。事實上,這些“不可能”的言論在大部分時候都是對的,但問題是當“不可能”的預測是錯誤時,會發生什麼呢?

IIya Sutskever:理解我們究竟在做什麼的方式之一就是去投一份保險協議,標的就是AGI的出現早於人們預期。但這又更強調了目前這個問題——首先,研究AGI到底是否有意義。如果你回顧歷史,人們用符號人工智慧做了很多有意思的演示,但他們沒法擴充套件它,也沒法用它解決真正的問題。現在利用深度學習,情況就不一樣了。我們有了一系列小工具,而且是通用的,這些工具們可以用在各種各樣的問題上。它們通用且有效,如果你想從一些非常困難的問題得到最優解,你一定要用深度學習。它還是可擴充套件的。於是你會說,“好吧,也許開始考慮AGI並非那麼毫無意義。”

Kelsey Piper:現在讓我擔憂的就是,當我跟不憂慮這些的人們討論時,我說“好吧,AGI有什麼讓你不安的?”,他們會說,“也許談論這些還太早,還得至少10年”。他們會再去討論“無監督學習”,也就是用非結構資料裡進行訓練。如今GPT-2正在用無監督學習。我們知道,十年前所有人都在說“人工智慧都沒法分辨現實物體”。如今我們已經基本解決這個問題了。

Greg Brockman:這是個非常有意思的心理學現象,我們適應能力非常強,已經把現在人工智慧的發展看成理所應當的東西了。這也能理解,因為理解科技進步和發展是非常困難的。

2014年有個很有意思的小漫畫:

漫畫文字:

對話OpenAI聯合創始人:我們之所以成立盈利公司,是有原因的!

A:當一個使用者拍照時,軟體應該檢視拍照位置是否在國家公園。

B:沒問題,簡單的地理位置查詢,幾小時搞定。

A:還得看看照片裡是不是隻鳥。

B:那,給我一個研究小組,5年時間。

在電腦科學領域,很難(對使用者和產品經理)解釋容易實現和基本不可能實現之間的區別。

你前面用到了一個詞“擔憂”。我覺得這很有意思,當人們說起AGI,總著眼於負面情況。或者通常而言,對於科技人們總是著眼於負面情況,但對於AGI或者整體科技業,我認為某種意義上,AGI是我們見過的科技業最極端的例子,但他好的一面其實更令人矚目。

我們從巨集觀的角度來看,人類對有能力解決“人人有醫保”的問題就沒抱希望。這也是我們振奮的所在,我們為積極面而激動。我們認識到了消極的那一面,也認為克服它們是非常重要的。

Kelsey Piper:但如果人們只是看著消極的一面,而不去想積極面…每天有15萬人在死去,如果有更好的技術,也許很多死亡可以避免。

Greg Brockman:沒錯,就是這個意思。

Kelsey Piper:如果你不去思考這些問題,你都沒法意識到其緊迫性。

Greg Brockman:對的。

Kelsey Piper:我們前面都在說OpenAI LP能確保收益被合理分配。但收益分配並不是人們朝著AGI方向努力的唯一問題,還有各種各樣的風險,比如一些能把我們鎖進絕望的未來這樣的風險。

Greg Brockman:我們認為AGI會帶來三方面的風險,某種意義上也都能歸結為一個問題,也即AGI引起飛速變革的能力。可以對比下網際網路。  

我們讓網際網路滲透在社會的方方面面中大概用了四、五十年,可以說這個變革依然太快了。看看近來的事件,如果我們能夠用更多的事件來理解這些變革對我們的影響就好了。但AGI呢,它可能帶來的變革所需的時間,你可以看成網際網路的壓縮版。

IIya Sutskever:還有第四點,濫用問題。如果你對風險問題比較關心,潛在風險都探索一番,那就不能漏掉人為因素和技術問題。我們努力讓政府明白AI發展現狀,並儘量讓他們正確理解它。同時努力開發AGI,確保它的安全,願景明確且被遵守。

Greg Brockman:我想你會發現我們的結構有很多奇怪之處,它看起來不像已經存在的結構,它沒有先例。這在很大程度上是因為我們考慮了所有風險。

網址:

https://www.vox.com/future-perfect/2019/4/17/18301070/openai-greg-brockman-ilya-sutskever

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31562039/viewspace-2643324/,如需轉載,請註明出處,否則將追究法律責任。

相關文章