“房間裡的大象”暴露AI巨坑,AI視覺系統被誇噓過頭了?

人工智慧頻道發表於2018-12-12

眾所周知,人工智慧雖說是一門新技術,但已經有一段歷史了,如今沸騰起來的人工智慧也只不過是經歷了數次寒冬碾壓出來的黃金期。

但是近期關於深度學習掀起的又一波“AI寒冬”又一次將人工智慧推向了輿論口波,一項旨在解決“房間裡大象”的新研究推動了這次AI的負面炒作。深度學習系統真的存在嚴重缺陷嗎?我們真的完全走錯了路嗎?

關於卷積神經網的最新研究主要集中在目標跟蹤器和檢測器上,它們是更通用的卷積網路的專用版。與將照片分類為貓和狗的方法不同,目標檢測器需要對整個影像進行處理,排除掉那些無關緊要的子區域,將檢測到的物體用矩形框框起來。

所有神經網路目前尚未解決的一個大問題是對抗性影像的存在。如果一個神經網正確的將照片分類為貓,那麼,它就可能在極微的程度上改變影像中的畫素,使得影像被分類成其他東西,例如狗,但這樣的變化非常的小,人們幾乎察覺不到。也就是說,敵對的形象看起來像一隻貓,但它卻被分類成狗或者其他東西。這是一個很腦洞的想法,但我們可以把它進一步推進,建立所謂的通用對抗影像,這可能會欺騙一系列的神經網路,忽視其確切的架構或訓練。

上個月,來自約克大學和多倫多大學的兩名研究人員合作發表了一篇論文《 The Elephant in the Room 》(房間裡的大象),在學界引起巨大反響,該論文揭露了利用神經網路進行物體檢測的缺陷。他們將大象放在房間裡創造了另一種對抗性形象。利用一個經過訓練的目標檢測器,顯示出一個標籤正確的場景。然後把一個意想不到的物體放到場景中(一個大象),結果發現,目標檢測器不僅沒有正確的顯示出大象,而且對目標物體的分類也是不正確的。

 

目標檢測器沒有檢測出大象,個人而言,我還沒有克服這樣一個事實。

是的,房間裡有一頭大象,目標檢測器正在做人為的事情,而不是探討它,並且杯子也沒有被檢測出來。

但這足夠可以論證當前的人工智慧視覺系統存在巨大缺陷。

引用Quanta最近的一篇文章:

“這是一項聰明而重要的研究,它提醒我們‘深度學習’並不深。”紐約大學神經學家Gary Marcus說到。

的確,深度學習並沒有那麼深刻,但這並不能成為說服大多數讀者的理由。由於對人工智慧的高估,人們對這項研究的反應是錯誤的,尤其是深度學習。我們還沒有實現人工大腦,我們的深層神經網路與大腦相比還甚是微小。但是,我們不得不肯定它們在資料分析方面的能力,即便這個基層發生了變化,我們還是需要研究。

與大腦相比,深度學習並不深。這項研究相當於給眼睛和視神經看了一些圖片,然後驚訝地發現它竟然看不出來。

我們的神經網路是未來人工智慧的基石。深刻的神經網路對世界沒有任何意義。它沒有內部的語言表達,使它判斷大象不在那裡,因此它也不會再看大象第二眼。

目前我們的深度神經網路只是一個統計分析器,如果你給它們一個統計異常,它們就會弄錯。這並不是引起嚴厲批評的理由,把它當成一個3歲的孩子,它已經做的很好了。這不是一個人工的孩子,而是一個真正的孩子,是一小塊孤立的“人造大腦”,裡面有少量的模擬神經。

儘管如此,這項研究還是提出了一些非常現實的問題。畢竟,從統計學的角度看,一頭大象被分類錯誤並不奇怪,這只是統計異常。令大家意想不到的是,大象的出現能夠導致影像其他區域的錯誤。

為什麼會有互擾?

這讓我們回到了另一種對抗性的形象。似乎對抗性影像不屬於網路訓練集的統計分佈,因為它們跟自然影像不同。如果你發現被新新增到圖形中的物體被錯誤分類,它們通常是一種較規則的波段或常規噪音,完全不同於自然影像中發生的事物。這種噪聲將影像置於網路訓練過的影像集之外,因此錯誤分類就屬於情理之中了。

這如何適用於房間裡的大象?

同樣的論點。大象被切割並貼上到影像中。編輯邊緣和背景變化的存在可能將影像從自然影像集移動到操作影像集中,因此遇到的問題都是一樣的。

該論文的作者推測這確實是問題的一部分,但他們也提出了其他的可能性。尤其是,您可能認為,將大象放置在與錯誤分類的物件有一定距離的地方不會造成非位置性的問題,但這一預期沒有考慮到這樣一個事實,即目前神經網路沒有適應性,它們必須經過訓練來檢測影像中不同大小的物體,這就引入了非區域性效應。

這項研究並沒有強調深度學習網路誇大他們能力的事實。它強調的是,如果不瞭解正在發生的事情,人們就會誤判是目標檢測器異常的問題。我們需要繼續研究對抗性輸入到底是如何揭示神經網路的實際工作原理的,真正的人工智慧不會只涉及一個神經網路,不管它有多深。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31545819/viewspace-2285058/,如需轉載,請註明出處,否則將追究法律責任。

相關文章