下一代人工智慧:邏輯理解?物理理解?

sincermc發表於2021-07-26

  近日,由開放原子開源基金會與 Linux 基金會聯合開源中國共同舉辦的首屆“GOTC 全球開源技術峰會”在上海世博中心圓滿落幕。作為LF AI & Data子基金會的理事會成員之一,OPPO數智工程系統資深技術專家Liam Zheng在GOTC「AI大資料與數字經濟」分論壇發表了名為《下一代人工智慧:邏輯理解?物理理解?》的演講。本文透過對Liam的訪談,向大家分享他對下一代人工智慧的看法與理解。

  Q1:在本次GOTC分論壇上發表《下一代人工智慧的核心是邏輯理解和物理理解》這一演講的背景是什麼呢?

  OPPO加入了LF AI &Data子基金會,我們期待與其合作開源專案,在我們的開源專案出來之前,我們也需要一些預熱。此外,人工智慧發展到當前階段,大家發現在實際部署上線後遇到好多badcase,但是又無法很方便的去修改模型,通常需要大量標定資料,重新訓練模型。為了解決上述問題,我的觀點是人工智慧下一代應該是從邏輯層面和物理層面去深度地改造演算法,而不能只是簡單的去新增資料或把模型做大。

  Q2:那您主要從哪些方面去介紹這個問題呢?

  當時主要是講了4部分,第一部分是目前人工智慧面臨的瓶頸;第二部分是介紹了業內大咖對下一代人工智慧的一些觀點;第三部分是我針對人類智慧和人工智慧進行對比分析;最後得出下一代人工智慧的核心應該是邏輯理解和物理理解的觀點。

  Q3:目前與人類智慧相比,您認為人工智慧處於哪個階段呢?

  人類智慧其實是有八個領域,目前人工智慧只涉及了其中2-3個領域的工作。大部分的領域的資料表徵都還沒有涉及到。所以現在的人工智慧其實處於嬰兒時期,它遠遠沒有達到特別全面,特別完備的一個階段。

  Q4:剛剛提到了人工智慧的瓶頸,您認為最大的瓶頸是什麼呢?

  最主要的兩點,一個是魯棒性差,我舉了個例子:比如分類一張熊貓圖片,加了些隨機噪聲就變成了其他類別。就是微小的擾動,模型判斷的結果就會差異很大,甚至可以控制模型誤判到某個特定類別。

  另一點是可解釋性欠缺。比如說有時候這個模型可能表現特別好,有些情況又表現比較糟糕,但是定位不到具體哪個特徵哪個層造成這個模型表現差。

  以上兩點,在何積豐院士的《安全可信人工智慧》講演裡也有提到。

  Q5:對下一代人工智慧業內是什麼樣的看法呢?

  演講中我介紹了幾個大咖的看法。

  一是Geoffrey E. Hinton提出了膠囊網路的這個視角,他認為cv模型不應該是Invariant,應該是equivariant,就是能反映出影像的結構;現在的卷積模型不能夠反映出影像裡面的結構資訊,把某個部件放在任何一個位置,然後得出來的結果都不變,比如人的眼睛隨便亂放也會得出是一張人臉。但如果人自己來看的話,人眼睛如果位置偏移的比較厲害的話,就完全不像一張臉。

  二是Yan LeCun,他提出下一代人工智慧主要依靠自監督學習;這個觀點我是基本同意的,透過自監督學習來邏輯的物理的初始化模型空間,當前機器學習主要依靠監督學習,而在我看來,這只是機器學習中的一小部分

  三是朱松純教授的觀點,他認為下一代人工智慧應該是烏鴉正規化,透過小樣本多工學習解決實際問題;

  最後還有Yoshua Bengio,他認為人工智慧目前是感知階段,下一階段是認知階段,但我認為感知階段還遠沒有結束。

  Q6:為什麼說“下一代人工智慧的核心是邏輯理解和物理理解”?

  機器學習訓練集和測試集是基於IID(獨立同分布)的假設,實際上線後預估的資料常常是OOD(與訓練集分佈不同)。IID和OOD都是指表徵上的分佈,好的表徵會有好的OOD效果。雖然深度學習泛化能力比傳統機器學習要好些,但是同樣面臨OOD問題。當樣本空間很大時,訓練集永遠只是整體的微小部分,和總體的分佈會有很大差異。在微小訓練集上做簡單的監督學習只會學會訓練樣本的區域性模式,因為只靠區域性模式表徵就可以取得訓練集和測試集的IID效果了,而區域性模式表徵和區域性模式遠遠不能滿足上線後的OOD情況。總之,OOD是造成當前人工智慧魯棒性差的本質原因。

  下一代人工智慧迫切要解決感知的魯棒性,關鍵在於表徵和訓練的邏輯理解和物理理解,而不是超大模型超大資料。


來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69999012/viewspace-2783221/,如需轉載,請註明出處,否則將追究法律責任。

相關文章