NeurIPS 2018首日:阿里霸氣演示全中文Demo,谷歌釋出“找新娘”圖片識別競賽

大資料文摘發表於2018-12-03

NeurIPS 2018首日:阿里霸氣演示全中文Demo,谷歌釋出“找新娘”圖片識別競賽

大資料文摘出品

作者:魏子敏

幾經換名風波,NeurIPS——年度最大的人工智慧峰會,將在本週於蒙特利爾啟動。

兩年前的2016年,依然被稱為NIPS大會的該活動有5,000名註冊參與者。去年,參會者人數達到8,000。到了今年,首批2,000張門票在放出12分鐘內即售罄。

今年的大會時間是12月2日~8日,儘管主論壇是在4號才正式開幕,在這兩天的工作坊(workshop)和展會(expo)預熱中,已經有一些精彩的內容了。

阿里巴巴霸氣演示全中文demo

當地時間2號上午,在NeurIPS大會第一日,阿里巴巴iDST(資料科學與技術研究院)釋出了其在語音識別領域的新進展,並且在演示開始前霸氣表示:“我們所有演示demo都是中文的,不懂中文的聽眾估計沒有辦法感受到我們的創新點了。”成為今天的大會熱議話題之一。


NeurIPS 2018首日:阿里霸氣演示全中文Demo,谷歌釋出“找新娘”圖片識別競賽

相關twitter熱議阿里巴巴中文demo演示話題


阿里巴巴iDST研究院負責人金榕作為演講人進行了本次演示,主要展示瞭如何在嘈雜的環境中進行語音識別技術,例如擁擠的地鐵系統或擁擠的會議中心。阿里巴巴的解決方案是部分硬體+部分軟體:遠場麥克風陣列和複雜的深度學習演算法,可以隔離人群中的聲音,大大降低錯誤率。

與單獨使用麥克風陣列的“最佳”語音識別技術84%的準確度相比,阿里巴巴聲稱其模型的準確度在94%到95%之間,即使使用重音揚聲器也可以達到這一準確度。

這一技術日前已經被部署為上海的基於語音的地鐵票務系統的一部分,阿里巴巴表示,正在努力將其帶到其他城市。

在今天的其中一場demo演示中,一位客戶向阿里巴巴的回答機器人戴小米詢問了特定藍芽音響的促銷活動,比如他們購買時會收到什麼樣的免費禮品,以及如何將禮品送到他們的收貨地址。阿里稱,今年晚些時候推出的未來版本將為優先案例新增情緒分析和自動警報。另外一個demo演示了聊天機器人的一個人形化身,其眼睛、嘴脣和頭部動作和聲音都與對話頗為協調。

兩次demo演示的主語言都為中文。

谷歌聯合NeurIPS釋出“找新娘圖片識別競賽”

另一個今天大會的熱議內容是谷歌,其釋出了一場旨在提升圖片識別包容度的“找新娘影像競賽”。

偏見(bias)一直是人工智慧(AI)中一個公認的問題:在不具代表性的資料集上訓練的模型往往不是公正的。要解決這個問題比你想象的要困難得多,特別是在影像分類任務中涉及社會問題的時候,例如種族歧視。

在近期一次測試中我們可以看到,Open Images資料集上訓練的分類器標記的婚禮照片中,只將西方傳統婚禮照片識別為“婚禮”、“儀式”,而對於東方或者其他族裔的傳統婚禮照片,識別結果只是“人”。

NeurIPS 2018首日:阿里霸氣演示全中文Demo,谷歌釋出“找新娘”圖片識別競賽

由在Open Images資料集上訓練的分類器標記的婚禮照片。 圖片來源:Google AI

為了解決這個問題,谷歌於9月推出了“包容性影像競賽”,該競賽挑戰團隊使用Open Images(一個公開提供的資料集,裡面有北美和歐洲的900張標記影像)來訓練AI系統。目前在Google的資料科學和機器學習社群入口網站Kaggle上可以找到這一資料集。

包容性影像競賽的目標是激勵參賽者開發影像分類器。為了編譯可以評估提交的模型的多樣化資料集,Google AI使用了一個應用程式。可以使使用者在拍攝圖片的時候,自動生成圖片標籤。然後將帶標籤的圖片放入影像分類器。最後由人類團隊驗證(驗證步驟是確保影像的標記是正確的)

本次競賽由谷歌與NeurIPS會議合作舉辦,據統計,競賽目前收到了來自100多名參與者的結果提交。谷歌大腦研究員Pallavi Baljekar在週日(12月2日)的一次會議上表示,第一年的比賽獲勝者能夠向更具包容性的系統邁出一小步。但前五種方法中只有一種成功地認出了印度新娘。很明顯,還需要做更多的工作。

競賽有兩個階段組成,第一階段有400個團隊參與,Google AI釋出了不同的屬性的32,000張圖片,包括地理位置,標籤分類等等。在第二階段,Google從第一階段和訓練資料集中釋出了100,000張具有不同標籤和地理分佈的影像。

NeurIPS 2018首日:阿里霸氣演示全中文Demo,谷歌釋出“找新娘”圖片識別競賽

來自挑戰資料集的標記影像的示例 圖片來源:Google AI

前三個團隊綜合使用了網路和資料增強技術,他們設計的AI系統在第一階段和第二階段都保持相對較高的準確性。

Baljekar說:“即使使用小型,多樣化的資料集,也可以提高無標籤目標分類的效能。”

谷歌人工智慧團隊稱,12月7日,在此競賽的基礎上,將釋出包含500,000張圖片的資料集。

還有什麼值得期待?

本次大會還將繼續進行一週,今年的大會有哪些值得期待的內容呢?文摘菌也梳理了以下幾個值得關注的點。

微軟將進行一場關於智慧語音互動機器人的釋出,機器人名為Ruuh,是一個21歲的女性聊天機器人。具有自動糾正錯別字的功能以及快速回復和延遲迴復功能。它還能夠基於文化的多樣性與使用者進行交流。(到目前為止,它已經進行過超過4千萬次對話,並在Facebook上獲得了100,000名粉絲。)

小米研究人員也會在會議展示Poster,內容是描述深層對抗演算法,該演算法可以學習本地相機曝光。

馬克斯普朗克資訊學研究所(Max Planck Institute)的科學家將詳細介紹他們的“對抗性場景編輯”的工作,這是一種學習如何從影像中找到和移除物體的模型。

另一個值得一看的內容是普林斯頓大學教授Edward Felten關於機器學習和公共政策的討論,比如政策制定者如何在人工智慧和機器學習時代看待新技術。以及為什麼機器學習研究人員參與到政府政策制定過程中去會對新技術的發展有促進作用。

最後,Deepmind的報告也值得期待,他們將展示下邊視訊中的新技術點選這裡

相關連結:

https://venturebeat.com/2018/12/02/alibabas-image-search-algorithm-can-recognize-up-to-300-million-objects/

https://ai.googleblog.com/2018/09/introducing-inclusive-images-competition.html

https://venturebeat.com/2018/11/23/ai-weekly-what-to-expect-at-neurips-2018-the-biggest-ai-conference-of-the-year/

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31562039/viewspace-2222514/,如需轉載,請註明出處,否則將追究法律責任。

相關文章