陳天奇任CTO,TVM團隊成立OctoML:任何硬體都能部署機器學習模型
機器之心報導
機器之心編輯部
據機器之心訊息,知名人工智慧青年學者、華盛頓大學博士陳天奇於近期參與建立了創業公司 OctoML,擔任 CTO 一職。
隨著人工智慧的火熱,創業成為了眾多 AI 人才畢業後的選擇。
近日,機器之心瞭解到,機器學習領域知名青年學者陳天奇畢業後也參與建立了全新創業公司 OctoML,擔任 CTO 一職。
陳天奇的領英資料介面。領英的公開資訊顯示,陳天奇目前擔任 OctoML 的 CTO。
從公司的註冊資訊我們瞭解到,這是一家數月前剛剛註冊、位於西雅圖的創業公司。公司主頁介紹稱,「OctoML 擁有當前最先進的 AI、系統、程式語言、編譯器和架構技術,可以讓機器學習系統的最佳化和部署變得更加容易。該公司致力於打造一個可擴充套件、開放、中立的端到端棧,用於深度學習模型的最佳化和部署。」
而在公司成員方面,華盛頓大學教授 Luis Ceze 擔任 OctoML 執行長(CEO)一職,他也是陳天奇在華盛頓大學讀博期間合作較多的教授。Josh Fromm、Jared Roesch 等成員也都是華盛頓大學助理教授或者博士。
Jason Knight 曾為英特爾 AI 產品團隊的軟體負責人,現擔任 OctoML 聯合創始人、CPO。
從公司主頁來看,OctoML 的創始團隊幾乎就是著名深度學習框架 TVM 的「原班人馬」。而且,這家公司的願景「讓機器學習可以部署在所有硬體上」,也與後者幾乎相同。這就不得不說到機器學習領域的重要工具 TVM 了。
新一代「機器學習系統」TVM
2017 年 8 月,華盛頓大學陳天奇等人開源了深度學習自動程式碼生成方法 TVM,對業界產生了深遠的影響。利用這一工具,機器學習演算法可以自動編譯成可供下層硬體執行的機器語言,從而可以利用多種型別的算力。
TVM 是一個全新的框架,它可以:
- 最佳化 CPU、GPU 和其他專業化硬體的常規深度學習的計算量
- 自動轉換計算圖以最小化記憶體利用率,最佳化資料佈局,融合計算模式
- 提供從現有的前端框架到裸機硬體的端到端編譯,一直到瀏覽器可執行的 Javascript
TVM 的誕生意味著新的深度學習晶片,以及新的深度學習硬體體系成為了可能。
深度學習模型可以識別影像、處理自然語言,以及在部分具有挑戰性的策略遊戲中擊敗人類。在其技術發展的過程中,現代硬體穩步推進的計算能力扮演了不可或缺的作用。很多目前最為流行的深度學習框架,如 TensorFlow、MXNet、Caffe 和 PyTorch,支援在有限型別的伺服器級 GPU 裝置上獲得加速,這種支援依賴於高度特化、供應商特定的 GPU 庫。然而,專用深度學習加速器的種類越來越多,這意味著現代編譯器與框架越來越難以覆蓋所有的硬體。
陳天奇等人的最終目標是讓深度學習負載可以輕鬆部署到所有硬體種類中:不僅包括 GPU、FPGA 和 ASIC(如谷歌 TPU),也包括嵌入式裝置,這些硬體的記憶體組織與計算能力存在著顯著的差異。考慮到這種需求的複雜性,開發一種能夠將深度學習高階程式降低為適應任何硬體後端的低階最佳化程式碼的最佳化框架是最好的方法。
TVM 是一個端到端最佳化堆疊,該端到端最佳化編譯器堆疊可降低和調整深度學習工作負載,以適應多種硬體後端。TVM 的設計目的是分離演算法描述、排程和硬體介面。該原則受到 Halide 的計算/排程分離思想的啟發,而且透過將排程與目標硬體內部函式分開而進行了擴充套件。這一額外分離使支援新型專用加速器及其對應新型內部函式成為可能。TVM 具備兩個最佳化層:計算圖最佳化層和新型排程基元的張量最佳化層。透過結合這兩種最佳化層,TVM 從大部分深度學習框架中獲取模型描述,執行高階和低階最佳化,生成特定硬體的後端最佳化程式碼,如樹莓派、GPU 和基於 FPGA 的專用加速器。
陳天奇表示,TVM 嘗試從更高的抽象層次上總結深度學習 op 的手工最佳化經驗,使得使用者可以快速地以自動或半自動的方法探索高效的 op 實現空間。
TVM 堆疊圖,這一工具支援多種深度學習框架以及主流 CPU、GPU 以及專用深度學習加速器。
陳天奇其人
陳天奇是機器學習領域著名的青年華人學者之一,本科畢業於上海交通大學 ACM 班,碩士階段也就讀於上海交通大學,博士畢業於華盛頓大學計算機系,研究方向為大規模機器學習。他曾參與開發了 XGBoost、Apache MxNet、Apache TVM () 等著名機器學習工具,是最大開源分散式機器學習專案 DMLC 的發起人之一。
陳天奇與機器學習的緣分開始於高中一年級,他就讀的松陽二中,是一所位於浙江小縣城的中學。
陳天奇曾在知乎社群的問答中回憶自己第一次接觸電腦科學的心路歷程:「比較幸運的是,比起其他學科競賽,OI 社群有很多在網際網路上的公開資料,訓練 OJ 和論壇社群(大榕樹和 oibh)。這些都給了像我這樣野路子的選手追尋自己的興趣的機會。「
高二的時候,陳天奇靠著全部上搜尋拿了 NOIP 的省二,高三又拿了省一。憑藉 NOIP 成績帶來的高考加分,陳天奇進入上海交通大學的 acm 班,開始了在電腦科學上的旅程。
在拿到博士學位之前,陳天奇曾在微軟亞洲研究院、華為諾亞方舟實驗室等機構實習,還曾在其母校擔任助教,講授編譯器、作業系統、資料庫管理系統、資料探勘和機器學習實踐等課程。
碩士期間,陳天奇還獲得了 2011 年 KDD Cup 的亞軍和 2012 年 KDD Cup 的冠軍。機器之心曾經轉載過陳天奇關於自己科研生活的自述文章《機器學習科研的十年》,一定意義上,KDDCup12 的奪冠是他決定將科研之路進行到底的最重要因素。
2013 年,陳天奇在華盛頓大學開啟了自己六年的博士生涯。讀博期間,陳天奇遇見了要求嚴格的導師 Carlos,鼓勵他「只做 best paper 水平的研究」。也正是在讀博的這幾年裡,陳天奇等人完成了 TVM 等重要研究。
今年,陳天奇從華盛頓大學獲得博士學位,其畢業後的去向成為備受關注的問題。
6 月份,他在 Twitter 上宣佈自己將於 2020 年秋季加入卡耐基梅隆大學(CMU)任助理教授,成為加入 CMU 的年輕華人學者之一。同樣宣佈將於 2020 年加入 CMU 的還有 CycleGAN 作者朱儁彥。
參考連結:
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2660344/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 機器學習領域:硬體的未來是軟體 - octoml機器學習TOML
- 陳天奇等人提出TVM:深度學習自動優化程式碼生成器深度學習優化
- TVM 中文站正式上線!最全機器學習模型部署「參考書」它來了機器學習模型
- 機器學習模型部署--打通前後端任督二脈機器學習模型後端
- 小型團隊硬體設計之元器件管理
- 人工智慧領軍人物:學霸陳天奇回憶--機器學習科研的十年人工智慧機器學習
- 成功專案團隊角色模型——Belbin團隊角色模型(轉)模型
- 朝夕光年成立奇想基金投資遊戲團隊遊戲
- 團隊10天衝刺第三天
- Ubuntu20.04部署TVM流程及編譯最佳化模型示例Ubuntu編譯模型
- 團隊10天衝刺第一天
- 團隊10天衝刺第二天
- 團隊專案第三天
- 團隊專案第四天
- 團隊工作總結(十三天)
- TVM 加速模型,優化推斷模型優化
- 當機器學習遇到色情,一位CTO如何帶隊打怪升級?機器學習
- 團隊專案第五天
- 團隊作業sprint第三天
- 團隊作業sprint第四天
- 團隊衝刺第五天
- 傳統文化研究團隊------軟體工程團隊專案軟體工程
- 從雲南走出來的獨立團隊,“梵天遊”成立三年來的升級磨練
- 團隊開發sprint 第一天
- 團隊作業sprint第二天
- 團隊作業sprint第五天
- 微軟傳奇僱員大衛·卡特勒加入Xbox團隊微軟
- Laravel 團隊任務管理系統(已開源)Laravel
- 谷歌VR團隊招硬體和光學人才,或開發新VR裝置谷歌VR
- “微信硬體創新大賽”深圳初賽—12強團隊角逐冠亞季軍
- Jenkins 使用指南 之 團隊部署篇Jenkins
- 什麼是Spotify模型的團隊拓撲?模型
- Kabam創始人團隊成立FORTE 打造區塊鏈遊戲平臺區塊鏈遊戲
- Facebook技術總監調任區塊鏈團隊任相同職位區塊鏈
- 團隊專案衝刺第二天
- 4.25日團隊開發第六天
- 4.26 團隊開發第七天
- 4.20團隊開發第一天