谷歌大腦2017技術研究總結 | Jeff Dean執筆(附論文 & 資料集)

資料派THU發表於2018-01-16

640?wx_fmt=png&wxfrom=5&wx_lazy=1

本文經AI新媒體量子位(公眾號ID:qbitai)授權轉載,轉載請聯絡出處

本文長度為8311字,建議閱讀10分鐘

Jeff Dean回顧了谷歌大腦團隊過去一年的核心研究,以及在多個AI領域的研究進展。


谷歌AI Senior Fellow、谷歌大腦負責人Jeff Dean,按照慣例,今天開始釋出2017年度的谷歌大腦年度總結。


在這份已經發布的總結中,Jeff Dean回顧了谷歌大腦團隊過去一年的核心研究,以及在多個AI領域的研究進展。


Jeff Dean還把相關研究的論文等一併附上,堪稱良心之作,值得收藏。


640?wx_fmt=gif&wxfrom=5&wx_lazy=1


以下是最新發布的總結全文,淺色文字為註釋:


作為谷歌整體人工智慧計劃的一部分,谷歌大腦團隊致力於通過研究和系統工程,提升人工智慧的技術水平。我們去年分享了2016年的工作總結。從那以後,我們在提升機器智慧這個長期研究專案上繼續取得進展,並與谷歌和Alphabet的多個團隊合作,使用我們的研究成果來改善人們的生活。


我們將為2017年撰寫兩篇總結文章,第一篇包括我們的一些基礎研究工作,以及關於開源軟體、資料集和機器學習的新硬體的更新。第二篇文章的重點是探討我們針對機器學習能產生巨大影響的領域展開的深入研究,如醫療、機器人和一些基礎科學領域,以及我們在創造性、公平和包容等方面所作的工作,並讓你更加深入地瞭解我們。


資料派將上述兩篇總結文章合併為一篇,更加便於閱讀~


上篇


核心研究


我們團隊的一個研究重點是促進我們的理解力和提高我們解決機器學習領域新問題的能力。以下是我們去年研究的幾大主題。


AutoML


自動化機器學習的目標是開發各種技術,讓計算機自動解決新的機器學習問題,而不需要人類機器學習專家逐一干預。如果我們有朝一日真的能有真正的智慧系統,這就是我們所需的基本能力。


我們開發了利用強化學習和進化演算法設計神經網路體系結構的新方法。


AutoML在去年5月的2017 Google I/O開發者大會上首次正式釋出。這個新方法意在讓讓神經網路去設計神經網路,谷歌希望能借AutoML來促進深度學習開發者規模的擴張,讓設計神經網路的人,從供不應求的PhD,變成成千上萬的普通工程師。


在AutoML中,一個主控的神經網路可以提出一個“子”模型架構,並用特定的任務來訓練這個子模型,評估它的效能,然後,主控收到反饋,並根據反饋來改進下一個提出的子模型。


這個過程,簡單來說就是:生成新架構-測試-提供反饋供主控網路學習。在重複上千次後,主控網路學會了哪些架構能夠在已知驗證集上得到更高的準確率。


將此項工作擴充套件到ImageNet最新分類和檢測結果中,並展示瞭如何自動學習新的優化演算法和有效的啟用函式。我們正積極與我們的雲人工智慧團隊合作,將這項技術提供給谷歌客戶使用,並繼續在多方面推動該研究。


640?wx_fmt=png

640?wx_fmt=png


去年11月,谷歌對AutoML進行了升級。此前AutoML能設計出與人類設計的神經網路同等水平的小型神經網路,但始終被限制在CIFAR-10和Penn Treebank等小型資料集上。


為了讓這種方法應用到ImageNet中,研究人員對AutoML做了兩點調整,方便更容易地處理大型資料集。


相關論文:

  • Neural Optimizer Search with Reinforcement Learning
    https://arxiv.org/abs/1709.07417

  • Searching for Activation Functions
    https://arxiv.org/abs/1709.07417


語音理解和生成


另一個主題是開發新技術,提高我們的計算系統在理解和生成人類語音方面的能力,包括我們與谷歌語音團隊合作為一個端到端語音識別方法開發了一系列改進措施,把谷歌語音識別系統的相對詞錯誤率降低了16%。這項工作有一個好處,那就是需要融合很多獨立的研究線索。


相關論文:

  • State-of-the-art Speech Recognition With Sequence-to-Sequence Models
    https://arxiv.org/abs/1712.01769

  • Minimum Word Error Rate Training for Attention-based Sequence-to-Sequence Models
    https://arxiv.org/abs/1712.01818

  • Multi-Dialect Speech Recognition With A Single Sequence-To-Sequence Model
    https://arxiv.org/abs/1712.01541

  • Multilingual Speech Recognition With A Single End-To-End Model
    https://arxiv.org/abs/1711.01694

  • Improving the Performance of Online Neural Transducer Modele
    https://arxiv.org/abs/1712.01807

  • Monotonic Chunkwise Attention
    https://arxiv.org/abs/1712.05382

  • Learning Hard Alignments with Variational Inference
    https://arxiv.org/abs/1705.05524

  • No Need for a Lexicon? Evaluating the Value of the Pronunciation Lexica in End-to-End Models
    https://arxiv.org/abs/1712.01864

  • An analysis of incorporating an external language model into a sequence-to-sequence model
    https://arxiv.org/abs/1712.01996


640?wx_fmt=png

Listen-Attend-Spell端到端語音識別模型的部件


我們還和谷歌機器感知團隊合作,開發了一種進行文字到語音生成的新方法:Tacotron 2。這種新方法極大地改進了所生成語音的效果,模型達到的平均意見分(MOS)達到4.53,而你在有聲書裡聽到的那些專業人類播音員,MOS也只有4.58,以前,計算機合成語音的最佳成績是4.34。


Tacotron 2合成音訊試聽:
https://google.github.io/tacotron/publications/tacotron2/index.html


640?wx_fmt=png

Tacotron 2模型架構


新的機器學習演算法和方法


我們繼續開發新穎的機器學習演算法和方法,包括對capsules的研究(在執行視覺任務時,明確地尋找啟用功能協議,以此作為一種評估不同噪聲假設的方法)。


相關報導:Hinton的Capsule論文終於公開


相關論文:

  • Dynamic Routing between Capsules
    https://research.google.com/pubs/pub46351.html


sparsely-gated mixtures of experts (這能實現仍然具有計算效率的大型模型)。


在這個研究中,新的神經網路層只需要很小的計算能力提升,便能高效地提升模型的能力。


相關論文:

  • Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer
    https://arxiv.org/abs/1701.06538


hypernetworks(使用一個模型的權重來生成另一個模型的權重)。


相關論文:

  • HYPERNETWORKS
    https://openreview.net/pdf?id=rkpACe1lx


新型多模模型(使用相同模型執行音訊、視覺和文字輸入等多工學習)。


相關報導:一個神經網路學習一切!


相關論文:

  • One Model To Learn Them All
    https://arxiv.org/abs/1706.05137


基於注意力的機制(代替卷積和迴圈模型)。


相關論文:

  • Attention is All You Need
    https://arxiv.org/pdf/1706.03762.pdf


符號和非符號學習優化方法。


相關論文:

  • Neural Optimizer Search with Reinforcement Learning
    http://proceedings.mlr.press/v70/bello17a/bello17a.pdf

  • Learned Optimizers that Scale and Generalize
    https://arxiv.org/abs/1703.04813


一項通過離散變數反向傳播的技術。


相關論文:

  • Categorical Reparameterization with Gumbel-Softmax
    https://arxiv.org/abs/1611.01144


以及對強化學習演算法的一些改進。


相關論文:

  • Bridging the Gap Between Value and Policy Based Reinforcement Learning
    https://arxiv.org/pdf/1702.08892.pdf


計算機系統的機器學習


在計算機系統中用機器學習取代傳統的啟發式應用也是我們非常感興趣的方向。我們已經展示瞭如何使用強化學習在把計算機影像對映到一組計算裝置上的時候制定位置決策,效果比人類專家還好。


相關論文:

  • Bridging the Gap Between Value and Policy Based Reinforcement Learning
    https://arxiv.org/pdf/1702.08892.pdf


我們與谷歌研究院的其他同事共同在“The Case for Learned Index Structures”中展示,神經網路不僅比傳統的資料結構(B-樹、雜湊表和Bloom過濾器)更快,而且也小得多。我們認為,我們只是掌握了在核心計算系統中使用機器學習的皮毛。


相關報導:如何構建未來的機器學習晶片


相關論文:

  • The Case for Learned Index Structures
    https://arxiv.org/abs/1712.01208


隱私和安全


機器學習及其與安全與隱私的互動仍是我們研究的重點。在ICLR 2017的一篇得獎論文中,我們展示了機器學習技術可以用於提供不同的隱私保障方式。


相關論文:

  • Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data
    https://arxiv.org/abs/1610.05755


我們還繼續調查了對抗樣例的特性,包括在現實世界中展示對抗樣例,以及如何在訓練過程中規模化使用對抗樣例,使模型更適用於對抗樣例。


相關論文:

  • Adversarial examples in the physical world
    https://research.google.com/pubs/pub45818.html

  • Adversarial Machine Learning at Scale
    https://arxiv.org/abs/1611.01236


理解機器學習系統


雖然通過機器學習技術得到了漂亮的結果,但更重要的是理解機器學習在什麼時候能發揮作用,什麼時候無效。


在另一篇ICLR 2017最佳論文中,我們展示了,當前機器學習理論框架無法解釋深度學習方法取得的出色結果。


相關論文:

  • Understanding deep learning requires rethinking generalization
    https://openreview.net/forum?id=Sy8gdB9xx&noteId=Sy8gdB9xx


我們還展示了,通過優化方法發現的最小值“平坦度”並不像最初想象中與良好的泛化方法密切相關。為了更好地理解深度框架中訓練如何推進,我們釋出了一系列分析隨機矩陣的論文,因為這是大多數訓練方法的出發點。


相關論文:

  • Nonlinear random matrix theory for deep learning
    https://research.google.com/pubs/pub46342.html


理解深度學習的另一個重要途徑是更好地衡量效能。我們在最近一項研究中比較了多種GAN方法,展示了良好的實驗設計和統計嚴格性的重要性。許多GAN方法很熱門,被用於增強生成模型,但實際上並沒有帶來效能優化。我們希望這項研究能給其他研究員帶來範例,幫助他們展開健壯性更好的實驗性研究。


我們正在開發能對機器學習系統進行更好表達的方法。去年3月,通過與OpenAI、DeepMind和YC Research等公司和機構合作,我們推出了新的開放科學線上雜誌Distill,致力於支援人類對機器學習的理解。這份線上雜誌的文章提供了清晰的機器學習概念,以及出色的互動式視覺化工具。在推出第一年中,Distill釋出了多篇有啟發性的文章,旨在幫助人們瞭解機器學習的各種內部原理。我們期待2018年能帶來更多內容。


640?wx_fmt=png

特徵視覺化
https://distill.pub/2017/feature-visualization/

640?wx_fmt=png

如何有效地使用t-SNE


用於機器學習研究的開放資料集


MNIST、CIFAR-10、ImageNet、SVHN和WMD等開放資料集快速推動了機器學習的研究進展。我們團隊和谷歌研究院一起,在過去一年裡一直積極探索開放有趣的新資料集,用於開源機器學習領域的研究。我們提供了規模更大的有標籤資料集,其中包括:


  • YouTube-8M:大於700萬個YouTube視訊,被標註為4716個不同類別
    https://research.google.com/youtube8m/

  • YouTube-Bounding Boxes:來自21萬個YouTube視訊的500萬個邊界框
    https://research.google.com/youtube-bb/

  • Speech Commands Dataset:數千名講話者說出的簡短命令
    https://research.googleblog.com/2017/08/launching-speech-commands-dataset.html

  • AudioSet:200萬個10秒鐘YouTube短視訊,用527個不同聲音事件去標記
    https://research.google.com/audioset/

  • Atomic Visual Actions(AVA):5.7萬個視訊片段中的21萬個動作標籤
    https://research.google.com/ava/

  • Open Images:900萬張獲得知識共享許可的圖片,被標記為6000個類別
    https://github.com/openimages/dataset

  • Open Images with Bounding Boxes:600個類別的120萬邊界框


640?wx_fmt=png

YouTube-Bounding Boxes資料集示例


TensorFlow和開源軟體


640?wx_fmt=png

TensorFlow全球使用者分佈
http://jrvis.com/red-dwarf/?user=tensorflow&repo=tensorflow


在團隊歷史上,我們開發了一些工具,幫助我們在谷歌的多種產品中開展機器學習研究,部署機器學習系統。


2015年11月,我們開源了第二代機器學習框架TensorFlow,希望讓機器學習界從我們的投入中受益。2月份,我們釋出了TensorFlow 1.0。11月份,我們又釋出了1.4版本,加入了以下重要內容:用於互動式非典型程式設計的Eager Execution、針對TensorFlow程式優化的編譯器XLA,以及用於移動和嵌入式裝置的輕量級解決方案TensorFlow Lite。


預編譯的TensorFlow二進位制檔案已在180多個國家被下載了1000多萬次,GitHub上的原始碼已有超過1200名貢獻者。


2月份,我們舉辦了首屆TensorFlow開發者峰會,超過450人來到山景城現場參會,全球有6500多人觀看了線上直播,包括35個國家的超過85場本地觀看活動。所有演講記錄了下來,主題包括新特性,使用TensorFlow的新技術,以及對低階TensorFlow抽象的詳細描述。


TensorFlow開發者峰會2017演講視訊:
https://www.youtube.com/playlist?list=PLOU2XLYxmsIKGc_NBoIhTn2Qhraji53cv


我們將於2018年3月30日在舊金山灣區舉行另一場TensorFlow開發者峰會。現在你可以註冊,儲存日期,追蹤最新訊息。


TensorFlow開發者峰會2017註冊地址:
https://services.google.com/fb/forms/tfds-2018-save-the-date/


class="video_iframe" scrolling="no" frameborder="0" style="display:block;" width="670" height="376" src="http://v.qq.com/iframe/player.html?vid=y13262cdpvn&width=670&height=376.875&auto=0">一個用TensorFlow玩石頭剪刀布的實驗


我們很高興看見,2017年TensorFlow得到了廣泛應用,包括黃瓜分揀的自動化,在航拍照片中尋找海牛,對土豆進行分揀確保兒童食品安全,協助翻譯紐西蘭鳥類保護區的鳥叫聲,以及對坦尚尼亞最受歡迎根莖作物的病害進行識別。


11月,TensorFlow作為開源專案慶祝了兩週歲生日。我們很高興看到TensorFlow開發者和使用者社群的興起和繁榮。TensorFlow目前是GitHub上排名第一的機器學習平臺,也是GitHub上的最火的五大程式碼庫之一,被許多大大小小的企業和組織使用。


此外,GitHub上已有2.45萬個與TensorFlow有關的不同程式碼庫。目前的許多研究論文關於開原始碼的TensorFlow實現,並提供了研究成果,幫助整個社群更容易地理解確切的研究方法,模仿或擴充相關工作。


Google Research其他團隊的相關開源工作也令TensorFlow受益,其中包括TF-GAN。這是個輕量級庫,用於TensorFlow、TensorFlow Lattice(一組用於晶格模型的估計工具),以及TensorFlow物件檢測API中的生成對抗模型。隨著模型數量的不斷增長,TensorFlow模型庫也在繼續壯大。


  • TF-GAN
    https://research.googleblog.com/2017/12/tfgan-lightweight-library-for.html


除TensorFlow之外,我們還發布了deeplearn.js,提供了一種在瀏覽器中配置深度學習API的開源、硬體加速的方法(無需下載或安裝任何東西)。deeplearn.js的主頁提供了許多很好的範例,包括Teachable Machine(一種計算機視覺模型,可以用自己的攝像頭去訓練)和Performance RNN(實現了基於實時神經網路的鋼琴作曲和表演)。2018年,我們將在此基礎上進一步推進,協助將TensorFlow模型直接部署至deeplearn.js環境。


相關連結:

  • Teachable Machine
    https://teachablemachine.withgoogle.com/

  • Performance RNN
    https://deeplearnjs.org/demos/performance_rnn


TPU


640?wx_fmt=png


大約5年前,我們意識到,深度學習將極大地改變我們對硬體的需求。深度學習計算將帶來計算密集型任務,同時具備兩個特點:


一方面,它們主要由繁重的線性代數運算(矩陣乘法、向量運算等)組成;另一方面,它們對精度降低寬容度很高。


我們意識到,可以基於這兩大特點來構建專用硬體,從而更高效地執行神經網路計算。因此,我們向谷歌的平臺團隊提供了設計輸入,而他們設計並開發了第一代的“張量處理單元(TPU)”。這是一種單晶片ASIC,用於加速深度學習推理(與訓練不同,推理用於已經過訓練的神經網路)。


第一代TPU在資料中心的部署已有3年時間,谷歌搜尋、谷歌翻譯、谷歌照片,以及AlphaGo中的深度學習模型就使用了這種晶片,同時也給許多其他研究專案和產品提供了計算能力。去年6月,我們在ISCA 2017上發表了一篇論文,表明第一代TPU要比同時代GPU或CPU快15到30倍,而效能功耗比則提升了30倍到80倍。


640?wx_fmt=jpeg

640?wx_fmt=png

用ImageNet訓練ResNet-50的實驗表明,隨著TPU數量的增長,神經網路訓練加速


推理很重要,但訓練的加速是個更重要的問題,同時也更困難。如果研究人員可以更快地嘗試新想法,那麼我們就可以取得更多突破。


我們的第二代TPU於去年5月在谷歌I/O大會上釋出,提供了完整的系統(包括訂製的ASIC晶片、電路板和連線方式),可以同時加速訓練和推理。我們展示了單個裝置的配置,以及包含多個機架的深度學習超級計算機配置,即TPU艙。我們宣佈將通過谷歌雲端計算平臺提供第二代裝置,即雲TPU。我們還啟動了TensorFlow研究雲(TFRC)專案,向願意將工作成果分享給全世界的頂級機器學習研究員提供包含1000個雲TPU的計算叢集。


12月,我們又展示了一項成果:用TPU艙去訓練ResNet-50 ImageNet模型,並在22分鐘內取得了高水平的精確度。而傳統工作站達到這樣的效果需要幾天甚至更長時間。我們認為,縮短研究週期將大大提高谷歌機器學習團隊,以及所有使用雲TPU的組織的效率。


如果你對雲TPU、TPU艙和TensorFlow研究雲感興趣,那麼可以在 g.co/tpusignup 註冊,瞭解更多資訊。我們很高興,2018年能讓更多工程師和研究員用上TPU。


原文:
https://research.googleblog.com/2018/01/the-google-brain-team-looking-back-on.html


這是Jeff Dean總結Google Brain 2017成就的上篇,在下篇中,他將談一談他們對機器學習應用於醫療、機器人、各種科學研究、創造等領域的研究,也會談到Google Brain在公平性和包容性方面所做的工作。


下篇


在下篇總結中,Jeff Dean詳細論述了谷歌大腦過去一年的AI應用研究,例如如何將機器學習等技術應用於醫療、機器人、創意、公平等等多個領域。


這在某種程度上,也代表了2017人工智慧具體應用的最高水平研究。


在這篇文章中,我們將深入到谷歌大腦在多個特定領域所做的研究。


醫療


我們認為,機器學習技術在醫療行業的應用潛力巨大。我們正在解決各種各樣的問題,包括協助病理學家檢測癌症,理解各種對話來為醫生和病人提供幫助,使用機器學習解決基因組學中的各種問題,其中包括一個名叫DeepVariant的開源工具,用深度神經網路來從DNA測序資料中快速精確識別鹼基變異位點。


癌症檢測報導:Google用深度學習做癌症病理檢測,準確率達89%


相關論文:

  • Detecting Cancer Metastases on Gigapixel Pathology Images
    https://drive.google.com/file/d/0B1T58bZ5vYa-QlR0QlJTa2dPWVk/view


理解對話論文:

  • Speech recognition for medical conversations
    https://arxiv.org/abs/1711.07274


基因檢測報導:谷歌推出開源工具DeepVariant

  • 程式碼:https://github.com/google/deepvariant


640?wx_fmt=png


我們還致力於儘早發現糖尿病視網膜病變(DR)和黃斑水腫,並於2016年12月在《美國醫學協會雜誌》(JAMA)上發表論文。


相關論文:

  • Development and Validation of a Deep Learning Algorithm for Detection of Diabetic Retinopathy in Retinal Fundus Photographs
    https://jamanetwork.com/journals/jama/article-abstract/2588763


2017年,我們將這個專案從研究階段過渡到實際的臨床影響階段。我們與Verily(Alphabet旗下的一家生命科學公司)合作,通過嚴格的流程來引導這項工作,我們還一起將這項技術整合到尼康的Optos系列眼科相機中。


此外,我們在印度努力部署這套系統,因為印度的眼科醫生缺口多達12.7萬人,因此,幾乎一半的患者確診時間過晚,並因為這種疾病而導致視力下降。作為試點的一部分,我們啟動了這個系統,幫助Aravind Eye Hospitals眼科醫院的學生更好地診斷糖尿病眼病。


640?wx_fmt=png


Verily還可以通過視網膜影像用AI檢測心臟病


我們還與合作伙伴共同瞭解影響糖尿病眼睛護理的人類因素,從患者和醫療服務提供者的人種學研究,到研究眼科醫生如何與人工智慧系統之間的互動方式。


我們也與領先的醫療組織和醫療中心的研究人員(包括史丹佛大學、加州大學舊金山分校和芝加哥大學),共同演示機器學習利用匿名病歷來預測醫療結果所能達到的具體效果(例如,考慮到病人的現狀,我們相信可以用針對其他數百萬病人的病程進行的研究來預測這個病人的未來,以此幫助醫療專業人士做出更好的決策)。我們對這項工作感到非常興奮,我們期待著在2018年告訴你更多與之有關的事情。


機器人


我們在機器人領域的長期目標是設計各種學習演算法,讓機器人在混亂的現實環境中執行,並通過學習快速獲得新的技能和能力。而不是讓它們身處精心控制的環境中,處理當今機器人所從事的那些為數不多的手工程式設計任務。


我們研究的一個重點是開發物理機器人的技術,利用他們自己的經驗和其他機器人的經驗來建立新的技能和能力,分享經驗,共同學習。我們還在探索如何將基於計算機的機器人任務模擬與物理機器人的經驗結合起來,從而更快地學習新任務。


相關部落格:https://research.googleblog.com/2017/10/closing-simulation-to-reality-gap-for.html


雖然模擬器的物理效果並不完全與現實世界相匹配,但我們觀察到,對於機器人來說,模擬的經驗加上少量的真實世界經驗,比大量的實際經驗更能帶來更好的結果。


除了真實世界的機器人經驗和模擬的機器人環境,我們還開發了機器人學習演算法,可以學習通過觀察人類的演示進行學習。我們相信,這種模仿學習模式是一種非常有前途的方法,可以讓機器人快速掌握新的能力,不需要明確程式設計或明確規定一個活動的具體目標。


相關報導:谷歌教機器人理解語義,像人一樣學習複雜技能


論文及專案:

  • Unsupervised Perceptual Rewards for Imitation Learning
    https://sermanet.github.io/rewards/

  • Time-Contrastive Networks: Self-Supervised Learning from Multi-View Observation
    https://sermanet.github.io/tcn/

  • End-to-End Learning of Semantic Grasping
    https://arxiv.org/abs/1707.01932


例如,在下面的視訊中,機器人會從不同的角度觀察人類執行任務的過程,然後努力模仿他們的行為,從而在15分鐘的真實世界體驗中學會用杯子倒水。就像教自己3歲的孩子一樣,我們可能會給予它鼓勵,告訴它只灑出來一點水。


class="video_iframe" scrolling="no" frameborder="0" style="display:block;" width="670" height="376" src="http://v.qq.com/iframe/player.html?vid=u1331n2urj5&width=670&height=376.875&auto=0">

我們還共同組織並主持了11月召開的第一屆Conference on Robot Learning (CoRL),彙集了在機器學習和機器人技術的交叉領域工作的研究人員。這次會議的總結包含了更多的資訊,我們很期待明年在蘇黎世召開的會議。


會議總結:https://research.googleblog.com/2017/12/a-summary-of-first-conference-on-robot.html


基礎科學


我們也很看好機器學習技術解決重要科學問題的長期潛力。去年,我們利用神經網路預測了量子化學中的分子性質。


相關論文:

  • Machine learning prediction errors better than DFT accuracy
    https://arxiv.org/abs/1702.05532

  • Neural Message Passing for Quantum Chemistry
    https://arxiv.org/abs/1704.01212


通過分析天文資料發現了新的系外行星。


相關部落格:https://www.blog.google/topics/machine-learning/hunting-planets-machine-learning/


對地震的餘震進行預測,並利用深度學習來指導自動證明系統。


相關論文:

  • Deep Network Guided Proof Search
    https://arxiv.org/abs/1701.06972


640?wx_fmt=png

640?wx_fmt=png


創意


我們也很感興趣,如何利用機器學習技術去協助創意活動。2017年,我們開發了一個人工智慧鋼琴二重奏工具。


相關報導:Google推出一個彈鋼琴的AI


彈琴地址:
https://experiments.withgoogle.com/ai/ai-duet/view/


幫助YouTube音樂人Andrew Huang製作了新的音樂。


對這個感興趣,可以前往YouTube觀看:
https://youtu.be/AaALLWQmCdI


並展示瞭如何教機器畫畫。


相關報導:怎樣教機器學會畫畫和抽象“算術”?


相關論文:

  • A Neural Representation of Sketch Drawings
    https://arxiv.org/abs/1704.03477


畫畫地址:autodraw.com

0?wx_fmt=gif


我們還演示了,如何控制執行在瀏覽器中的深度生成模型,製作新的音樂。這項工作贏得了NIPS 2017的“最佳演示獎”,這也是谷歌大腦團隊Magenta專案的成員連續第二年贏得這個獎項。


Demo地址:
https://deeplearnjs.org/demos/performance_rnn/index.html


在NIPS 2016上,來自Magenta專案的互動音樂即興創作也贏得了“最佳演示獎”。

在以下YouTube視訊中,你可以看到這個演示的一部分,即MusicVAE變分自動編碼器模型將一段旋律平滑地轉換為另一段。


MusicVAE地址:
https://colab.research.google.com/notebook#fileId=/v2/external/notebooks/magenta/music_vae/music_vae.ipynb


People + AI研究專案(PAIR)


機器學習的進步為人類與計算機的互動帶來了全新的可能。與此同時,同樣重要的是讓全社會從我們開發的技術中受益。我們將這方面的機遇和挑戰視為高優先順序工作,並與谷歌內部的許多團隊合作,成立了PAIR專案(https://ai.google/pair)


PAIR的目標是研究和設計人類與人工智慧系統互動最高效的方式。我們發起了公共研討會,將多個領域,包括電腦科學、設計,甚至藝術等領域的學術專家和實踐者聚集在一起。PAIR關注多方面課題,其中一些我們已有所提及:嘗試解釋機器學習系統,幫助研究者理解機器學習,以及通過deeplearn.js擴大開發者社群。關於我們以人為中心的機器學習工程方法,另一個案例是Facets的推出。這款工具實現訓練資料集的視覺化,幫助人們理解訓練資料集。


0?wx_fmt=gif


機器學習的公平性和包容性


隨著機器學習在技術領域發揮越來越大的作用,對包容性和公平性的考量也變得更重要。谷歌大腦團隊和PAIR正努力推動這些領域的進展。


我們發表的論文涉及,如何通過因果推理來避免機器學習系統的偏見,在開放資料集中地理多樣性的重要性,以及對開放資料集進行分析,理解多元化和文化差異。我們也一直與跨行業專案Partnership on AI密切合作,確保公平性和包容性成為所有機器學習實踐者的目標。


相關論文:

  • Avoiding Discrimination through Causal Reasoning
    https://arxiv.org/pdf/1706.02744.pdf

  • No Classification without Representation: Assessing Geodiversity Issues in Open Data Sets for the Developing World
    https://arxiv.org/abs/1711.08536


640?wx_fmt=png


我們與谷歌創意實驗室的同事合作製作了這段視訊,作為對該領域問題的非技術性介紹。


class="video_iframe" scrolling="no" frameborder="0" style="display:block;" width="670" height="376" src="http://v.qq.com/iframe/player.html?vid=t1331wnzlvv&width=670&height=376.875&auto=0">

我們的文化


我們團隊文化的一個重要方面在於,賦能研究員和工程師,幫助他們解決他們認為最重要的基本研究問題。9月份,我們公佈了開展研究的一般方法。


相關部落格:

https://research.googleblog.com/2017/09/the-google-brain-teams-approach-to.html


在我們的研究工作中,教育和指導年輕研究員貫穿始終。去年,我們團隊吸納了100多名實習生,2017年我們研究論文的約25%共同作者是實習生。


2016年,我們啟動了“谷歌大腦入駐”專案,給有志於學習機器學習研究的人們提供指導。在專案啟動第一年(2016年6月到2017年5月),27名入駐者加入我們團隊。我們在專案進行到一半時,以及結束後公佈了進展,列出了入駐者的研究成果。專案第一年的許多入駐者都是全職研究員和研究工程師,他們大部分人沒有參加過伯克利、卡耐基梅隆、史丹佛、紐約大學和多倫多大學等頂級機器學習研究機構的博士研究。


2017年7月,我們迎來了第二批入駐者,他們將與我們一同工作至2018年7月。他們已經完成了一些令人興奮的研究,成果在許多研究場合發表。


詳情可見:https://research.google.com/pubs/AIResidency.html


現在,我們正在擴大專案範圍,引入谷歌內部的許多其他研究團隊,並將專案更名為“Google AI Residency program”專案。(今年專案的申請截止時間已過,可以通過連結g.co/airesidency/apply瞭解明年的專案情況)。


2017年,我們所做的工作遠遠超出我們在這兩篇部落格中介紹的內容。我們致力於在頂級研究場合發表我們的成果。去年,我們團隊發表了140篇論文,包括在ICLR、ICML和NIPS上發表的超過60篇論文。如果想要進一步瞭解我們的工作,你可以仔細閱讀我們的研究論文。


論文詳情:https://research.google.com/pubs/BrainTeam.html


你也可以在這段視訊中瞭解我們的團隊成員。


視訊地址:https://youtu.be/rsN690cfWsM


或是讀一讀我們在第二次“Ask Me Anything”活動上的回答。(你也可以看看我們2016年的同一活動。)


AMA報導:Jeff Dean領銜全面解答AI現狀與未來


谷歌大腦團隊正在開枝散葉,在北美和歐洲都吸納了成員。如果你覺得我們所做的工作聽起來很有趣,想要加入我們,那麼可以看看我們正在招聘的空缺職位,申請實習,參與人工智慧入駐專案,拜訪我們的研究員,或是通過g.co/brain最下方的連結去跟蹤全職的研究和工程開發崗位。


你可以通過谷歌研究部落格,或Twitter帳號@GoogleResearch關注我們2018年的工作,你也可以關注我的個人帳號@JeffDean。


640?wx_fmt=png


Jeff Dean還在Twitter上等待大家的反饋呢~


編輯:文婧

0?wx_fmt=jpeg

相關文章