1482765175-9465-1klkal9vq68tlt6a

Data Science Central 網站主編、有多年資料科學和商業分析模型從業經驗的 Bill Vorhies曾撰文指出,過去一年人工智慧和深度學習最重要的發展不在技術,而是商業模式的轉變——所有巨頭紛紛將其深度學習 IP 開源。 毋庸置疑,“開源浪潮”是 2016 年人工智慧領域不可忽視的一大趨勢,而其中最受歡迎的專案則是谷歌的深度學習平臺 TensorFlow。下文就從TensorFlow 說起,盤點2016年AI開源專案,最後統計了 Github 最常用深度學習開源專案 Top 50。

谷歌開源:圍繞 TensorFlow 打造深度學習生態圈

1. Google第二代深度學習引擎TensorFlow開源

2015年11月,谷歌開源深度學習平臺 TensorFlow。2016年4月,谷歌推出了分散式 TensorFlow。現在,TensorFlow 已經成為業內最受歡迎的深度學習平臺之一。

2. 谷歌開源全球最精準語言解析器SnytaxNet

2016年5月13日,Google Research宣佈,世界準確度最高的自然語言解析器 SyntaxNet 開源。谷歌開源再進一步。據介紹,谷歌在該平臺上訓練的模型的語言理解準確率超過90%。SyntaxNet 是一個在TensoFlow中執行的開源神經網路框架,提供自然語言理解系統基礎。谷歌公開了所有使用者自己的資料訓練新SyntaxNet模型所需要的程式碼,以及谷歌已經訓練好的,可用於分析英語文字的模型 Paesey McParseface。

Paesey McParseface 建立於強大的機器學習演算法,可以學會分析句子的語言結構,能解釋特定句子中每一個詞的功能。此類模型中,Paesey McParseface是世界上最精確的,谷歌希望它能幫助對自動提取資訊、翻譯和其他自然語言理解(NLU)中的應用感興趣的研究者和開發者。

3. 谷歌推出 Deep&Wide Learning,開源深度學習 API

2016年6月29日,谷歌推出 Wide & Deep Learning,並將 TensorFlow API 開源,歡迎開發者使用這款最新的工具。同時開源的還有對 Wide & Deep Learning 的實現,作為 TF.Learn 應用程式介面的一部分,讓開發者也能自己訓練模型。

4. 谷歌開源 TensorFlow 自動文字摘要生成模型

2016年8月25日,谷歌開源了 TensorFlow 中用於文字資訊提取並自動生成摘要的模型,尤其擅長長文字處理,這對自動處理海量資訊十分有用。自動文字摘要最典型的例子便是新聞報導的標題自動生成,為了做好摘要,機器學習模型需要能夠理解文件、提取重要資訊,這些任務對於計算機來說都是極具挑戰的,特別是在文件長度增加的情況下。

5. 谷歌開源影像分類工具TF-Slim,定義TensorFlow 複雜模型

2016年8月31日,谷歌宣佈開源 TensorFlow 高階軟體包 TF-Slim,能使使用者快速準確地定義複雜模型,尤其是影像分類任務。自發布以來,TF-Slim 已經得到長足發展,無論是網路層、代價函式,還是評估標準,都增加了很多型別,訓練和評估模型也有了很多便利的常規操作手段。這些手段使你在並行讀取資料或者在多臺機器上部署模型等大規模執行時,不必為細節操心。此外,谷歌研究員還製作了 TF-Slim 影像模型庫,為很多廣泛使用的影像分類模型提供了定義以及訓練指令碼,這些都是使用標準的資料庫寫就的。TF-Slim 及其組成部分都已經在谷歌內部得到廣泛的使用,很多升級也都整合進了 tf.contrib.slim。

6. 谷歌開源大規模資料庫,10億+資料,探索 RNN 極限

2016年9月13日,谷歌宣佈開源大規模語言建模模型庫,這項名為“探索RNN極限”的研究今年2月發表時就引發激論,如今姍姍來遲的開源更加引人矚目。研究測試取得了極好的成績,另外開源的資料庫含有大約 10 億英語單詞,詞彙有 80 萬,大部分是新聞資料。這是典型的產業研究,只有在谷歌這樣的大公司才做得出來。這次開源也應該會像作者希望的那樣,在機器翻譯、語音識別等領域起到推進作用。

7. 谷歌開源 TensorFlow 圖說生成模型,可真正理解影像

2016年9月23日,谷歌宣佈開源圖說生成系統 Show and Tell 最新版在 TensorFlow 上的模型。該系統採用編碼器-解碼器神經網路架構,分類準確率達 93.9%,在遇到全新的場景時能夠生成準確的新圖說。谷歌表示,這說明該系統能夠真正理解影像。

8. 谷歌開源超大資料庫,含800萬+視訊

2016年9月28日,谷歌在官方部落格上宣佈,將含有800萬個Youtube 視訊URL 的視訊資料庫開源,視訊總時長達到了50萬個小時。一併釋出的還有從包含了4800個知識圖譜分類資料集中提取的視訊級別標籤。這一資料庫在規模和覆蓋的種類上都比現有的視訊資料庫有顯著提升。例如,較為著名的Sports-1M資料庫,就只由100萬個Youtube 視訊和500個運動類目。谷歌官方部落格上說,在視訊的數量和種類上,Youtube-8M代表的是幾乎指數級的增長。

9. 谷歌釋出 Open Images 圖片資料集,包含900萬標註圖片

2016年10月1日,繼前天釋出800萬視訊資料集之後,谷歌又釋出了圖片資料庫Open Images,包含了900萬標註資料,標籤種類超過6000種。谷歌在官方部落格中寫到,這比只擁有1000個分類的ImageNet 更加貼近實際生活。對於想要從零開始訓練計算機視覺模型的人來說,這些資料遠遠足夠了。就在 12月,谷歌還開源了 Open Images 並行下載工具的指令碼,5 天速度最高超過 200 M。

10. DeepMind 開源 AI 核心平臺 DeepMind Lab(附論文)

2016年 12月 5日,DeepMind 宣佈將其AI 核心平臺 DeepMind Lab 開源。DeepMind 實驗室把全部程式碼上傳至 Github,供研究人員和開發者進行實驗和研究。DeepMind Lab 這一平臺將幾個不同的 AI 研究領域整合至一個環境下,方便研究人員測試AI 智慧體導航、記憶和3D成像等能力。值得一提的是,這些程式碼也包括 AlphaGO 的程式碼,谷歌希望以此增加 AI 能力的開放性,讓更多開發者參與 AI 研究,觀察其他開發者是否能夠挑戰並打破 DeepMind 現在的紀錄。

Facebook 開源:貫徹理念

1. Facebook 開源圍棋引擎 DarkForest 

6 個月前,Facebook 將其圍棋引擎 DarkForest 開源。現在訓練程式碼已經全部發布。Github 連結:https://github.com/facebookresearch/darkforestGo。

2. Facebook 開源文字分類工具 fastText,不用深度學習也可以又快又準

2016 年 8 月19日,Facebook AI 實驗室(FAIR)宣佈開源文字分析工具 fastText。fastText 既可以用於文字分類,又能用於學習詞彙向量表徵。在文字分類的準確率上與一些常用的深度學習工具不相上下,但是在時間上卻快很多——模型訓練時間從幾天減少到幾秒。除了文字分類,fastText 也能被用於學習詞語的向量表徵,Facebook 稱 fastText 比常用的 Word2vec 等最先進的詞態表徵工具表現都要好得多。

3. Facebook 開源計算機視覺系統 deepmask,從畫素水平理解影像(附論文及程式碼)

2016 年 8 月 26日,Facebook 宣佈開源計算機視覺系統 deepmask,稱該系統能“從畫素水平理解物體”,Facebook 希望開源能加速計算機視覺的發展。不過,Facebook 並沒有在自家產品中使用這些工具,像這樣落實到具體應用前就開源,跟通常所說的“開源”有些不同。對此,Facebook 人工智慧團隊 FAIR 的負責人 Yann LeCun 曾表示,正是因為 FAIR 做基礎的、不受制於公司短期效益的研究,才能真正推進人工智慧技術發展。

4. Facebook 開源 AI 訓練和測試環境 CommAI-env

2016 年 9 月 27日,Facebook 宣佈開放 AI 訓練和測試環境 CommAI-env,可以用任何程式語言設定智慧體。據介紹,CommAI-env 這個平臺用於訓練和評估 AI 系統,尤其是注重溝通和學習的 AI 系統。與用強化學習從玩遊戲到下圍棋都能做的 OpenAI Gym 不同,Facebook 的 CommAI-env 側重基於溝通的訓練和測試,這也是為了鼓勵開發人員更好地打造能夠溝通和學習的人工智慧,呼應該公司的十年規劃。Facebook 還表示,CommAI-env 會持續更新,並在成熟後舉辦競賽推進 AI 的開發。

在AI 測試環境方面,Facebook 還開源了 CommNet,這是一個讓基於神經網路的代理更好互動、實現合作而研發的模型,與 CommAI-env 配套。12 月,Facebook 還開源了 TorchCraft,在深度學習環境 Torch 與星際爭霸之間搭起了橋樑,方便研究人員使用控制器,編寫能夠玩星際爭霸遊戲的智慧代理。

5. Facebook 賈揚清發文介紹 Caffe2go,手機就能執行神經網路

2016 年 11月 8日,Caffe作者、Facebook 研究員賈揚清在官方網站上發文介紹了新的機器學習框架 Caffe2go,並表示在接下來的幾個月將其部分開源。Caffe2go 規模更小,訓練速度更快,對計算效能要求較低,在手機上就行執行,已經成為 Facebook 機器學習的核心技術。

OpenAI

1. OpenAI 推出代理訓練環境 OpenAI Gym

創立於 2015 年底的非盈利機構 OpenAI 的成立打破了谷歌、Facebook 等巨頭霸佔 AI 領域的格局,但其創始人、特斯拉CEO馬斯克多次發表人工智慧威脅論。馬斯克創立 OpenAI 目的何在?2016年 5 月 4日,OpenAI 釋出了人工智慧研究工具集 OpenAI Gym,用於研發和比較強化學習演算法,分析 OpenAI Gym 或可找出馬斯克的真正動機。

2. 另一種開源:OpenAI 介紹深度學習基礎框架

2016 年 8 月 30 日,OpenAI 研究員在部落格發文,結合例項介紹了 OpenAI 進行深度學習研究時採用的基礎設施配置,並且提供了相關開原始碼。文章激起了很多反響,相對於軟硬體開源,OpenAI 從另一個側面,對深度學習模型的實際部署提供了幫助。

3. OpenAI 重磅釋出 AGI 測試訓練平臺 Universe

2016年12月 4日,在今年 NIPS 大會召開的前一晚,OpenAI 釋出了 Universe,用於訓練解決通用問題 AI 的基礎架構。據悉,這是一個能在幾乎所有環境中衡量和訓練 AI 通用智慧水平的開源平臺,目標是讓智慧體能像人一樣使用計算機。目前,Universe 已經有1000種訓練環境,由微軟、英偉達等公司參與建設。有了 Universe,任何程式都能被接入到 OpenAI Gym 的環境中。很快,OpenAI 還推出了 Mini World of Bits(MiniWoB),這個與 OpenAI Universe 配套的環境基準可以測試代理與常見網頁瀏覽器元素的互動能力,比如按鈕、文字框、滑塊。

微軟開源:CNTK 升級版

根據 Github 2016 年度的《Octoverse 觀察報告》,微軟不僅是擁有開源專案最多的公司,也是貢獻人數最多的公司。

在人工智慧方面,微軟的開源專案有很多,包括 CNTK計算網路工具包、DMTK分散式機器學習工具包,Send2vec語義相似對映器, 以及 CodaLab 研究平臺(基於Web的開源平臺,旨在通過其線上社群幫助解決資料導向的許多常見問題,從而促進機器學習和高效能運算的研究領域的發展)。

2016 年 10 月 27日,微軟開源深度學習認知工具包 CNTK 升級版,其中最矚目的功能是增加了 Python 繫結,支援增強學習。新版的 CNTK 效能大幅提升,尤其是在多臺機器上處理較大資料集的情況下能高速執行,這種型別的大規模部署對於多GPU上的深度學習是不可或缺的,也是開發消費產品和專業產品的必需。

微軟研究人員表示,在多伺服器間執行的能力是一大進步。CNTK 升級版還包含了一些演算法,用於將大規模資料處理的計算消耗降到最低。

百度

1. 百度開源深度學習程式碼 Warp-CTC 詳解

2016 年 1月 15 日,百度公佈了程式碼 Warp-CTC,能夠讓 AI 軟體執行得更高效。說 Warp-CTC 知道的人可能還少,百度語音識別系統 Deep Speech 2 就是用它搭建的。百度位於矽谷的 AI 實驗室主管 Adam Coates 在接受 Re-Work 採訪時表示,他們在構建深度語音端對端系統的過程中發明了Warp-CTC 方法,進而使用 CTC 提高模型的可伸縮性。“由於沒有相似的工具,我們決定將其分享給人們。它是一款很實用的工具,可以用到現有的AI框架中。現在有很多深度學習的開源軟體,但是之前用於訓練序列資料的端對端網路一直很慢。我們在Warp-CTC上的投入是對“我們堅信深度學習與高效能運算技術(HPC)的結合會有巨大潛力”的一種證明。”

2. 百度開源分散式深度學習平臺,挑戰 TensorFlow(附教程)

2016 年 8 月 31日,百度宣佈開源深度學習平臺 PaddlePaddle。實際上,百度深度學習實驗室在幾年前就投入 PaddlePaddle 的開發,業內對這個雲端託管的分散式深度學習平臺讚譽有加:程式碼簡潔、設計乾淨,沒有太多抽象……PaddlePaddle 對於序列輸入、稀疏輸入和大規模資料的模型訓練有著良好的支援,支援GPU運算,支援資料並行和模型並行,僅需少量程式碼就能訓練深度學習模型,大大降低了使用者使用深度學習技術的成本。

3. 百度公開硬體基準 DeepBench,推動深度學習專用晶片研發競爭

2016 年 9月,百度發表論文,開源 DeepBench 基準測試,AI研究者和晶片製造商可以用它測試不同的晶片執行軟體時的效能,尤其是哪款硬體加速深度學習效能最好。目前 DeepBench 只能測試深度學習的訓練模型,能提供在三種 Nvidia GPU和一種 Intel Xeon Phi 處理器的基準化測試結果,未來還可能測試用於影像和語音識別之類任務的“推理”模型。百度希望 DeepBench 能促進特定任務深度學習加速器的研發,“GPU顯然不是終點,我們希望這能鼓勵競爭”。

GitHub 最受歡迎的深度學習專案

最後,在這裡附上一份非常有用的資料表:GitHub 最常用的 54 個深度學習專案,最後更新時間是今年 8 月。表格的整理人ID分別是 aymericdamien、lenck、pjreddie、vmarkovtsev、JohnAllen。

1482765175-9335-tl5sa4rtz7bxw5pw

1482765175-4208-6bi3fnfrw8dre0xp

1482765175-5265-35acjp7tq3l1x8j2

1482765175-8706-9aur1wewp0uxn7bd

自 新紀元