Facebook AI負責人:AI達到人類智慧之前,要先破解成本極限

AIBigbull2050發表於2019-12-16

來源:機器之能

本文 3807字,建議閱讀 10分鐘

本文分享Facebook 人工智慧副總裁Jerome Pesenti關於AI的最新觀點。

『導讀』Facebook AI 副總裁傑羅姆·佩森蒂(Jerome Pesenti)對人工智慧的進步感到鼓舞,但也看到了當前深度學習方法的侷限性。知名媒體作者 Will Knight 與他就 deepfake 技術、AI 能否讓人類更「智慧」、AI 技術的「天花板」危機、AI 商業化,以及 AI 出口管制等話題展開深度對話。

Facebook AI負責人:AI達到人類智慧之前,要先破解成本極限

作為 Facebook 人工智慧副總裁,傑羅姆·佩森蒂(Jerome Pesenti)在全球最具影響力和爭議的公司之一領導人工智慧的發展。他的工作需要監督數百名科學家和工程師,而這數百人的工作塑造了公司的方向,影響更廣闊世界。

佩森蒂於 2018 年 1 月加入 Facebook,繼承了該領域大牌人物之一——亞恩·萊昆(Yann Lecun)建立的一個研究實驗室。在此之前,他曾在 IBM 的沃森人工智慧平臺和仁愛人工智慧公司(Benevolent AI)工作,該公司正在將 AI 技術應用於醫學。

人工智慧對 Facebook 至關重要。那些擒獲了我們注意力或即將被我們關注到的演算法,有助於使該平臺及其姊妹產品 Instagram 和 WhatsApp 更具粘性和更加上癮。儘管有一些著名的 AI 案例失敗,比如個人助理「M」,Facebook 仍在繼續使用人工智慧構建新的功能和產品,從 Instagram 過濾器到擴增實境應用。

馬克•祖克伯(Mark Zuckerberg)承諾,將透過有效地利用人工智慧幫助解決公司的一些最大問題,如控制仇恨言論、假新聞傳播和遏制網路欺凌(迄今為止,這一努力收效甚微)。最近,Facebook 被迫考慮如何阻止透過 deepfake videos 形式傳播的 AI 驅動騙局。這種影片不僅可以令人毫不懷疑地傳播錯誤資訊,還可能引發新型騷擾。

最近,佩森蒂(以下簡稱為 JP)在其紐約辦事處附近會見了《連線》的資深作家威爾·奈特(Will Knight,以下簡稱 WK)。二人由「deepfake」開啟話頭,展開了一次 AI 領域全面而深入的對話。以下對話已經過編輯。

用 AI 技術擊穿「虛假」

WK:人工智慧被認為是一種解決虛假新聞和網路濫用的方法,但這可能誇大了它的威力。目前你們實際取得了什麼進展?

JP:自動調節。在 Facebook 的規模下,哪怕是與人、計算機協同工作,這依舊是一個極具挑戰性的問題。但是我們已經取得了很大的進步。

早期,該領域在視覺理解場景和影像方面取得了進展。在過去的幾年裡,我們已經能夠應用它來識別裸體,識別暴力,以及理解影像和影片中發生的事。

最近在語言領域有了很大的進步,使我們能夠透過人們使用的語言更精確地理解互動。當人們試圖欺凌、發表仇恨言論,哪怕只是一個玩笑,我們都可以理解得清清楚楚。儘管還沒有解決這個問題,但已經取得了明顯的進展。

WK: 那麼關於 deepfake 呢?

JP:對待這個問題,我們的態度非常嚴肅。實際上,我們到處尋找並製作了新的 deepfake 影片,來便於人們測試 deepfake 的新檢測技術。這是一個我們正未雨綢繆,準備主動出擊的重要挑戰。目前,在這個平臺上它的重要性還沒有被凸顯,但我們知道它可以非常強大。我們正在努力領先其他對手,並已經與業界和社會達成接觸。

不要指望 AI 讓人更「智慧」

WK:讓我們更廣義地來談談 AI。一些公司,例如 DeepMind 和 OpenAI,聲稱他們的目標是開發「通用人工智慧」,Facebook 有正在這麼做嗎?

JP:作為一個實驗室,我們的目標是匹配人類的智力。我們離那一步還非常遙遠,但我們認為這是一個偉大的目標。但我認為實驗室裡的很多人,包括 Yann,都認為「AGI」這個概念並不是很有趣,也沒有更多意義。

一方面,你會發現,有人認為 AGI 是人類智慧。但我認為這個看法有些虛偽,因為如果你真正思考過人類的智力,就會發現它不是很普遍。另一些人將異常想法投射在 AGI 上:一旦你擁有 AGI,你將擁有一種可以使自己變得更好的智力,並不斷改進。但現實中沒有一個真正的模型為此存在。人類不能藉此讓自己變得更聰明。

我覺得人們不能單純憑藉一個想法就去理所當然地追求一個結果。

WK: Facebook 的人工智慧實驗室是由萊昆(LeCun)建立的,萊昆是深度學習的先驅之一,他最近因在該領域的工作而獲得了圖靈獎。你怎麼看待那些批評該領域注重深度學習的人,他們認為這不會為我們帶來真正的智慧?

JP:深度學習和當前的人工智慧,如果你足夠誠實,會發現有很多侷限。AI 與人類智力的實際距離非常遙遠,有一些批評是合乎邏輯的:它可以傳播人類的偏見,它難以解釋,它不具有常識,它更多的是停留在模式匹配的層面,而不是強大的語義理解。但我們在解決其中一些問題上取得了進展,而且這一領域的進展仍然相當快。你可以把深度學習用來學習數學,理解蛋白質,你可以用它做很多事情。

AI 技術也有「天花板」危機

WK:一些人工智慧專家也談到了「重現危機」,或者說是重新建立突破性研究的困難。你認為這是個大問題嗎?

JP:這正是 Facebook 人工智慧非常熱衷的事情。當人們做一些不可複製的事情時,就會產生很多挑戰。如果你不能複製它,那就是一大投資損失。

我們相信「重現性」給這個領域帶來了很多價值。它不僅可以幫助人們驗證結果,還可以讓更多的人瞭解正在發生的事情,並以此為基礎進行構建。人工智慧的美妙之處在於,一切最終由計算機系統執行。因此,作為科學的一個分支,它首要滿足的就是可複製。我們相信人工智慧的未來將是一個幾乎在預設情況下可以複製的東西。我們試圖開源我們在人工智慧中產生的大部分程式碼,這樣其他人就可以在上面構建。

WK: OpenAI 最近指出,高階人工智慧所需的計算能力每 3 個半月就翻一番。你擔心這個嗎?

JP:這是個很好的問題。當你擴充套件深度學習時,它往往表現得更好,能夠以更好的方式解決更廣泛的任務。所以,放大規模存在優勢。但顯然,這種進步速度是不可持續的。如果你觀察過頂尖實驗,會發現他們每年的成本都會以 10 倍的速度增。現在,一個實驗的成本可能是 7 位數,但不會達到 9 位數或 10 位數,不然沒人能負擔得起。

這意味著在某個時候,我們最終會達到成本極限。在很多方面已經出現了這樣的情景。並不是每個領域都達到了可伸縮的極限,但在大多數地方,我們已經到了一個需要從最佳化、成本效益等方面考慮問題的地步,而且我們還需要看看如何從現有的計算中獲得最大的收益。這才是我們要出發的世界。

想讓AI商業化,就不能讓研究員呆坐一旁

WK: 從 IBM 和沃森的人工智慧商業化中,你學到了什麼?你又試圖在 Facebook 上覆制和避免什麼?

JP: 在沃森(Watson)是一個非常有趣的時期,我認為 IBM 宣稱這是一個商業市場,實際上還有應用程式。我覺得那真的很了不起。但有點太誇張了,我不認為這有很好地服務於 IBM。

當你在一個像 Facebook 這樣的地方時,組織內的 AI 使用率是非常驚人的。目前,Facebook 內部使用人工智慧的開發者數量每年都增長超過一倍。所以,我們需要解釋它是有用的,但不要誇大它。聲稱它能做到其實際不能做的事,對我們沒有好處。我不需要誇大說法來強調我團隊的有力。

WK: Facebook 有時難以將 AI 研究轉化為商業上的成功,例如「M」(詳見首次提到的開篇)。你會如何更有效地將研究與工程聯絡起來?

JP:當你開始談論技術轉讓時,這意味著你已經輸掉了這場戰鬥。你不能僅僅是選擇了一些研究,就要求其他人嘗試將其投入生產。你不能只是簡單把它扔過籬笆就認為任務完成了。這確實是一個集體的挑戰,最好的方法是讓做研究的人和更接近產品的人一起結合工作。確保一系列專案隨著時間的推移而成熟,並將人們集中在一起,而不是讓科學家們只站在一邊,讓他們輕鬆地把研究拋過來而什麼都不管。

WK: 那麼,近期 Facebook 會推出哪些值得我們期待的新 AI 產品呢?

JP:如今,AI 在 Facebook 中的用途有兩點:

1)讓使用者使用平臺更安全;

2)確保我們向使用者展示的內容有價值。

但我們正在做的,最令人興奮的事情是,創造只有人工智慧才有可能帶來的新體驗。擴增實境和虛擬現實都只能與人工智慧共存。我們最近看到,你可以用手與虛擬現實互動,這需要對耳機周圍的東西有一個非常微妙的瞭解。只需要使用一個相機,就能解析整個場景,這樣你就可以用你的手作為控制器。

我相信人們潛藏著巨大的創造力。你可以在*抖音*這樣的競品中看到這一點。不用成為專家、影片編輯或藝術家,許多人透過與媒體自然互動就可以完成影片和內容的創作。

WK: deepfake 背後的技術會達到這樣的創造性嗎?

JP:當然。我們需要了解兩個方面。一方面,它有很多潛力可以讓人們更有創造力並賦予他們這種能力,但正如我們在過去幾年中所瞭解到的,我們需要負責任地使用這項技術,我們需要在意外後果發生之前意識到這一點。

AI 是否應該被出口管制?

WK:你對 AI 出口管制怎麼看?這項技術能被限制嗎?會對該領域造成什麼樣的傷害?

JP:我個人的意見是,這似乎沒有實際的操作性。除此之外,它還可能對研究進展產生負面影響,迫使研究工作的可重複性降低。我相信開放和協作對於推動人工智慧的發展是很重要的,限制基礎研究成果的出版或開源可能會減緩該領域的進展。

也就是說,無論是否實施了此類控制,作為負責任的研究人員,我們應該繼續考慮潛在誤用的風險,以及我們如何幫助減輕這些風險,同時仍然確保我們推進人工智慧的工作儘可能開放和可複製。

— 完 —







來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2668882/,如需轉載,請註明出處,否則將追究法律責任。

相關文章