演算法工程師福利:超實用技術路線圖

机器之心發表於2020-08-23
內容上有一定的通用性,所以也分享到知乎上。歡迎大家給出建議,如有錯誤紕漏,還望不吝指正 :)

演算法工程師福利:超實用技術路線圖

工程師能力層級概覽

對於不同級別的演算法工程師技能要求,我們大致可以分成以下幾個層級:
  • 初級:可以在一些指導和協助下獨立完成開發任務。具體到演算法方面,需要你對於工具框架,建模技術,業務特性等方面有一定的瞭解,可以獨立實現一些演算法專案上的需求。

  • 中級:可以基本獨立完成一個專案的開發與交付。在初級工程師的基礎上,對於深入瞭解技術原理的要求會更高,並且能夠應對專案中各種複雜多變的挑戰,對於已有技術和工具進行改造適配。在整體工程化交付方面,對於程式碼質量,架構設計,甚至專案管理方面的要求會開始顯現。另外從業務出發來評估技術選型和方案也變得尤為重要。

  • 高階:可以獨立負責一條產品線的運作。在中級工程師的基礎上,需要更廣闊的技術視野與開拓創新能力,定義整個產品線的前進方向。解決問題已經不是關鍵,更重要的是提出和定義問題,能夠打造出在業界具有領先性和差異性的產品,為公司創造更大的價值。

事實上對於不同層級的工程師,非技術部分的要求都有一定佔比。本文主要聚焦在技術路線圖上,對於其他方面的學習進階路線不會做覆蓋。

閱讀建議

以下內容分工程基礎,演算法基礎,演算法工程交叉,工程深入方向,演算法深入方向幾個部分,在各個部分內部會進一步區分一些主題。在各個主題內部,也是有深入程度的區別的,不過限於篇幅沒有進行詳細的說明。建議學習路線可以先把兩個基礎部分與工作中較為相關的內容做一個整體基礎的夯實,然後可以在後續交叉和深入方向的主題中選擇感興趣的進行深入瞭解和學習,過程中發現基礎部分欠缺的,可以再回到基礎部分查漏補缺,迭代前行。

工程基礎

程式語言

Python

Python 是演算法工程師日常工作中最常用的語言,應該作為必須掌握的一門技術。大致的學習路線如下:
  • 學習掌握 Python 的基本語法,可以透過各類入門教程來看,個人推薦《Learn Python the Hard Way》。

  • 自我考核:能夠讀懂大多數的內部專案及一些開源專案程式碼的基本模組,例如 pandas, sklearn 等。

  • 學習 Python 的程式設計風格,建議學習觀遠內部的 Python 程式碼規範。

  • 自我考核:編寫的程式碼符合編碼規範,能夠透過各類 lint 檢查。

  • Python 進階,這方面有一本非常著名的書《Fluent Python》,深入介紹了 Python 內部的很多工作原理,讀完之後對於各類疑難問題的理解排查,以及語言高階特性的應用方面會很有幫助。另外動態語言超程式設計這塊,《Ruby 超程式設計》也是一本非常值得推薦的書。

  • 自我考核:能夠讀懂一些複雜的 Python 專案,例如 sqlalchemy 中就大量使用了超程式設計技巧。在實際工程專案中,能夠找到一些應用高階技巧的點進行實踐,例如基於 Cython 的效能最佳化等。

  • 領域應用,Python 的應用相當廣泛,在各個領域深入下去都有很多可以學習的內容,比如 Web 開發,爬蟲,運維工具,資料處理,機器學習等。這塊主要就看大家各自的興趣來做自由選擇了,個人推薦熟悉瞭解一下 Python web 開發,測試開發相關的內容,開拓視野。

  • 自我考核:以 Web 開發和測試開發為例,嘗試寫一個簡單的 model serving http 服務,並編寫相應的自動化測試。

Scala/Java

Java 目前是企業級開發中最常用的軟體,包括在大資料領域,也是應用最廣泛的語言,例如當年的 Hadoop 生態基本都是基於 Java 開發的。Scala 由於其函數語言程式設計的特性,在做資料處理方面提供了非常方便的 API,也因為 Spark 等專案的火熱,形成了一定的流行度。在進行企業級的軟體開發,高效能,大規模資料處理等方面,JVM 上的這兩門語言有很大的實用價值,值得學習。

順帶一提,Scala 本身是一門非常有意思的語言,其中函數語言程式設計的思想與設計模式又是非常大的一塊內容,對於拓寬視野,陶冶情操都是挺不錯的選擇。

考慮到演算法工程師的工作內容屬性,這邊給出一個 Scala 的學習路線:
  • 學習掌握 Scala 的基本語法,開發環境配置,專案編譯執行等基礎知識。這裡推薦 Coursera 上 Martin Odersky 的課程,《快學 Scala》或《Programming in Scala》兩本書也可以搭配著瀏覽參考。

  • 自我考核:能使用 Scala 來實現一些簡單演算法問題,例如 DFS/BFS。或者使用 Scala 來處理一些日常資料工作,例如讀取日誌檔案,提取一些關鍵資訊等。

  • 學習使用 Scala 來開發 Spark 應用,推薦 edX 上的《Big Data Analytics Using Spark》或者 Coursera 上的《Big Data Analytics with Scala and Spark》,另外有些相關書籍也可以參考,比如《Spark 快速大資料分析》等。

  • 自我考核:能夠使用 Spark 的 Scala API 來進行大規模的資料分析及處理,完成 lag feature 之類的特徵工程處理。

  • JVM 的原理學習,Scala/Java 都是 JVM 上執行的優秀語言,其背後是一個非常大的生態,包括在 Web,Android,資料基礎架構等方面有廣泛的應用。JVM 相比 Python 虛擬機器,發展更加成熟,有一套非常完善的 JDK 工具鏈及衍生的各類專案,便於開發者 debug,調優應用。這方面推薦學習周志明的《深入理解 Java 虛擬機器》。

  • 自我考核:理解 JVM GC 原理,能透過 JDK 中相關工具或者優秀的第三方工具如 arthas 等,排查分析 Spark 資料應用的資源使用情況,GC profiling,hot method profiling 等,進而進行引數最佳化。

  • 計算機語言理論。Programming Language 作為電腦科學的一個重要分支,包含了很多值得深入研究的主題,例如型別論,程式分析,泛型,超程式設計,DSL,編譯原理等。這方面的很多話題,在機器學習方面也有很多實際應用,比如 TVM 這類工作,涉及到大量編譯原理的應用,知乎大佬 “藍色” 也作為這個領域的專家在從事深度學習框架相關的工作。llvm, clang 作者 Chris Lattner 也加入 Google 主導了 Swift for Tensorflow 等工作。Scala 作為一門學術範非常強的語言,擁有極佳的 FP,超程式設計等能力支援,強大的型別系統包括自動推理,泛型等等高階語言特性,相對來說是一門非常 “值得” 學習的新語言,也是一個進入 PL 領域深入學習的 "gateway drug" :) 對這個方面有興趣的同學,可以考慮閱讀《Scala 函數語言程式設計》,《冒號課堂》,以及 Coursera 上《Programming Languages》也是一門非常好的課程。另外只想做科普級瞭解的同學,也可以讀一讀著名的《駭客與畫家》感受一下。

C/C++/Rust
當前流行的演算法框架,例如 TensorFlow, PyTorch, LightGBM 等,底層都是基於 C++ 為主要語言進行實現的。但是 C++ 本身過於複雜,使用場景也比較有限制,建議只需要達到能夠讀懂一些基礎的 C++ 程式碼邏輯即可。在系統級開發領域,目前有一門新語言逐漸崛起,連續幾年被 StackOverflow 投票評選為程式設計師最喜愛的語言:Rust。從設計理念和一些業界應用(例如 TiKV)來看還是非常不錯的,但是我也沒有深入學習瞭解過,就不做具體推薦了。這方面建議的學習內容包括經典的《The C Programming Language》以及 Rust 官方的:https://github.com/rust-lang/rustlings
  • 自我考核:能夠讀懂 LightGBM 裡對於 tweedie loss 的相關定義程式碼。

作業系統

基本概念

我們所編寫的演算法應用,都是透過作業系統的環境執行在物理硬體之上的。在實際運作過程中,會碰到不少相關的問題,例如為什麼程式報了資源不足的錯誤,為什麼 notebook 在瀏覽器裡打不開,為什麼程式 hang 住了沒有響應等等,都需要一些作業系統的知識來幫助理解和分析問題,最終排查解決。作業系統涵蓋的內容比較多,建議一開始只需要瞭解一些主要概念(例如硬體結構,CPU 排程,程式,執行緒,記憶體管理,檔案系統,IO,網路等),對於整體圖景有一些感覺即可。後續碰到了實際問題,可以再在各個部分深入學習展開。優秀的學習資料也有很多,基本都是大部頭,重點推薦《深入理解計算機系統》,《Operating Systems: Three Easy Pieces》,以及《現代作業系統》。
  • 自我考核:能夠基本明確執行一個模型訓練任務過程中,底層使用到的硬體,作業系統元件,及其互動運作的方式是如何的。

Linux 基礎

平時工作中最常用的兩個作業系統 CentOS 和 macOS,都是 Unix/Linux 系的,因此學習掌握相關的基礎知識非常重要。一些必須掌握的知識點包括:Shell 與命令列工具,軟體包管理,使用者及許可權,系統程式管理,檔案系統基礎等。這方面的入門學習資料推薦《鳥哥的 Linux 私房菜》,基本涵蓋了 Linux 系統管理員需要掌握知識的方方面面。進階可以閱讀《Unix 環境高階程式設計》,對於各種系統呼叫的講解非常深入,可以為後續效能調優等高階應用打下基礎。
  • 自我考核:開發一個 shell 小工具,實現一些日常工作需求,例如定時自動清理資料資料夾中超過一定年齡的資料檔案,自動清理記憶體佔用較大且執行時間較久的 jupyter notebook 程式等。

深入應用

工作中碰到的疑難問題排查,效能分析與最佳化,系統運維及穩定性工程等方面,都需要較為深入的計算機體系和作業系統知識,感興趣的同學可以針對性的進行深入學習。以效能最佳化為例,可以學習經典的《效能之巔》,瞭解其中的原理及高階工具鏈。像其中的系統呼叫追蹤 (strace),動態追蹤(systemtap, DTrace, perf, eBPF) 等技術,對於作業系統相關的問題排查都會很有幫助。
  • 自我考核:能夠分析定位出 LightGBM 訓練過程中的效能瓶頸,精確到函式呼叫甚至程式碼行號的級別。

軟體工程

演算法與資料結構

暫時先把這塊放到軟體工程模組下。這裡指的演算法是電腦科學中的經典演算法,例如遞迴,排序,搜尋,動態規劃等,有別於我們常說的機器學習演算法。這塊的學習資料網上有非常多,個人當年是透過普林斯頓的演算法課 (需要有 Java 基礎) 入門,後來又上了史丹佛的演算法分析與設計,開拓了一些視野。書籍方面推薦新手從《演算法圖解》入門,然後可以考慮閱讀 Jeff Erickson 的《Algorithms》,或者選擇上面提到的網課。另外像《程式設計珠璣》,《程式設計之美》等也可以參閱,裡面有不少問題的巧妙解法。除了從書本中學習,還可以直接去 LeetCode 等網站進行實戰操作進行練習提高。
  • 自我考核:能夠設計相關的資料結構,實現一個類似 airflow 中點選任意節點向後執行的功能。

程式碼規範

從初級程式設計師到中高階程式設計師,其中比較大的一個差異就是程式碼編寫習慣上,從一開始寫計算機能理解,能夠執行成功的程式碼,逐漸演化到寫人能夠理解,易於修改與維護的程式碼。在這條學習路徑上,首先需要建立起這方面的意識,然後需要在實戰中反覆思考和打磨自己的程式碼,評判和學習其它優秀的專案程式碼,才能逐漸精進。推薦的學習書籍有《編寫可讀程式碼的藝術》,一本非常短小精悍的入門書籍,後續可以再慢慢閱讀那些經典大部頭,例如《Clean Code》,《Code Complete》,《The Pragmatic Programmer》等。這方面 Python 也有一本比較針對性的書籍《Effective Python》,值得一讀。
  • 自我考核:審視自己寫的專案程式碼,能發現並修正至少三處不符合最佳編碼實踐的問題。

設計模式

在程式碼架構方面,設計模式是一個重要的話題,對於日常工作中出現的許多典型場景,給出了一些解決方案的“套路”。這方面最著名的書當屬 GoF 的《設計模式》,不過個人並不十分推薦,尤其是以 Python 作為主要工作語言的話,其中很大部分的設計模式可能並不需要。入門可以瀏覽一下這個網站掌握一些基本概念:https://refactoringguru.cn/design-patterns/python ,後續可以考慮閱讀《Clean Architecture》,《重構》等相關資料,理解掌握在最佳化程式碼架構過程中思考的核心點,並加以運用。Python 相關的設計模式應用,還可以參考《Python in Practice》。
  • 自我考核:在專案中,找到一處可以應用設計模式的地方,進行重構改進。

質量保障

對於需要實際上線執行的軟體工程,質量保障是非常重要的一個環節,能夠確保整個產品按照期望的方式進行運作。在機器學習專案中,由於引入了資料這個因素,相比傳統的軟體測試會有更高的難度,也是業界還在摸索前進的方向。建議可以先閱讀《單元測試的藝術》或《Google 軟體測試之道》,大致理解軟體測試的一些基本概念和運作方式,在此基礎上可以進一步閱讀 Martin Fowler 對於機器學習領域提出的 CD4ML 中相關的測試環節,學習 sklearn,LightGBM 等開源庫的測試開發方式,掌握機器學習相關的質量保障技術能力。
  • 自我考核:在專案中,實現基礎的資料輸入測試,預測輸出測試。

專案管理

軟體工程推進過程中,專案管理相關的技能方法與工具運用也非常的關鍵。其中各種研發流程與規範,例如敏捷開發,設計評審,程式碼評審,版本管控,任務看板管理等,都是實際專案推進中非常重要的知識技能點。這方面推薦學習一本經典的軟體工程教材《構建之法》,瞭解軟體專案管理的方方面面。進一步來說廣義的專案管理上的很多知識點也是後續深入學習的方向,可以參考極客時間上的課程《專案管理實戰 20 講》。
  • 自我考核:在某個負責專案中運用專案管理方法,完成一個實際的需求評估,專案規劃,設計與評審,開發執行,專案上線,監控維護流程,並對整個過程做覆盤總結。

高階話題

軟體工程師在技能方向成長的一條路線就是成為軟體架構師,在這個方向上對於技能點會有非常高的綜合性要求,其中也有不少高階話題需要深入學習和了解,例如技術選型與系統架構設計,架構設計原則與模式,寬廣的研發知識視野,高效能,高可用,可擴充套件性,安全性等等。有興趣的同學可以瞭解一下極客時間的《從 0 開始學架構》這門課,逐漸培養這方面的視野與能力。另外如《微服務架構設計模式》還有領域驅動設計方面的一系列書籍也值得參考學習。
  • 自我考核:設計一個演算法專案 Docker 映象自動打包系統。

演算法基礎

資料分析

數學基礎

在進行演算法建模時,深入瞭解資料情況,做各類探索性分析,統計建模等工作非常重要,這方面對一些數學基礎知識有一定的要求,例如機率論,統計學等。這方面除了經典的數學教材,也可以參考更程式設計師向的《統計思維》,《貝葉斯方法》,《程式設計師的數學 2》等書籍。
  • 自我考核:理解實際專案中的資料分佈情況,並使用統計建模手段,推斷預測值的置信區間。

視覺化

在進行資料分析時,視覺化是一個非常重要的手段,有助於我們快速理解資料情況,發掘資料規律,並排查異常點。對於各種不同型別的資料,會對應不同的視覺化最佳實踐,如選擇不同的圖表型別,板式設計,分析思路編排,人機互動方式等等。另一方面,視覺化與資料包告也是我們與不同角色人群溝通資料 insights 的一個重要途徑,需要從業務角度出發去思考視覺化與溝通方式。這方面可以參考《Storytelling with Data》,《The Visual Display of Quantitative Information》等經典資料,同時也需要培養自己的商業背景 sense,提升溝通能力。
  • 自我考核:對內溝通方面,能使用視覺化技術,分析模型的 bad case 情況,並確定最佳化改進方向。對外溝通方面,能獨立完成專案的資料分析溝通報告。

誤差分析與調優

在做演算法模型調優改進中,需要從資料分析的基礎上出發來決定實驗方向,這麼做有幾個好處:
  • 從分析出髮指導調優更有方向性,而不是憑經驗加個特徵,改個引數碰運氣。哪怕是業務方提供的資訊,也最好是有資料分析為前提再做嘗試,而不是當成一個既定事實。

  • 由分析發現的根源問題,對於結果驗證也更有幫助。尤其在預測的資料量極大情況下,加一個單一特徵很可能總體只有千分位準確率的提升,無法確定是天然波動還是真實的提升。但如果有分析的前提,那麼我們可以有針對性的看對於這個已知問題,我們的調優策略是否生效,而不是隻看一個總體準確率。

  • 對於問題的徹底排查解決也更有幫助,有時候結果沒有提升,不一定是特徵沒用,也可能是特徵程式碼有 bug 之類的問題。帶著資料分析的目標去看為什麼這個特徵沒有效果,是模型沒學到還是特徵沒有區分度等,有沒有改進方案,對於我們評判調優嘗試是否成功的原因也更能徹查到底。

  • 資料分析會幫助我們發現一些額外的問題點,比如銷量資料清洗處理是不是有問題,是不是業務本身有異常,需要剔除資料等。

這方面在業界有一些關於誤差分析的探索研究,不過大多數都是基於分類問題的,例如《Identifying Unknown Unknowns in the Open World》,《A Characterization of Prediction Errors》等。可以在瞭解這些研究的基礎上,結合具體的業務情況,深入思考總結誤差分析的思路與方法論。
  • 自我考核:在專案中形成一套可以重複使用的誤差分析方案,能夠快速從預測輸出中定位到目前模型最重要的誤差類別,並一定程度上尋找到根本原因。

機器學習基礎

傳統機器學習

這塊大家應該都非常熟悉了,初階的學習路線可以參考周志華老師的《機器學習》,涵蓋了機器學習基礎,常用機器學習方法,和一些進階話題如學習理論,強化學習等。如果希望深化理論基礎,可以參考經典的《PRML》,《ESL》和《統計學習方法》。在實戰中,需要綜合業務知識,演算法原理,及資料分析等手段,逐漸積累形成建模調優的方法論,提高整體實驗迭代的效率和成功率。
  • 自我考核:結合實際業務和機器學習理論知識,挖掘專案中演算法表現不夠好的問題,並透過演算法改造進行提升或解決。

深度學習

近些年興起的深度學習,已經成為機器學習領域一個非常重要的分支,在各個應用方向發揮了很大的作用。相對於傳統機器學習,對於特徵工程要求的降低成了其核心優勢。另一方面,深度學習對於大資料量,大規模算力的應用能力很強,也一定程度上提升了整體的產出效果。由於理論方面的研究稍顯落後,深度學習在實際應用中對於使用者的經驗技能要求相對比較高,需要有大量的實戰經驗才能達到比較理想的效果。這方面的學習資料推薦 Keras 作者的《Deep Learning with Python》,以及《Hands-on Machine Learning with Scikit-Learn and TensorFlow》,而在理論方面推薦著名的“花書”《Deep Learning》。在學習理論原理的基礎上,尤其要注意在實際演算法應用中,能夠透過觀察各種指標與資料分析,找到提升模型的操作改進方向。
  • 自我考核:能夠在實際專案中,使用深度學習模型,達到接近甚至超過傳統 GBDT 模型的精確度效果,或者透過 ensemble,embedding 特徵方式,提升已有模型的精度。

領域建模

目前我們的業務領域在時間序列預測,自然語言處理,推薦等方面,其它類似影像,搜尋,廣告等領域也都有各自的一些領域建模方法。在時間序列領域,包括了傳統時序模型,如 ARIMA, Prophet,機器學習模型,如划動視窗特徵構建方法結合 LightGBM,及深度學習模型,例如 LSTM,seq2seq,transformer 等。這方面可以參考 Kaggle 上相關比賽的方案分享,以及 Amazon,Uber,天貓等有類似業務場景公司的分享資料。其它領域也是類似,透過了解歷史技術演進,相關比賽,業界的方案分享與開源專案,會議論文來逐漸掌握學習建模方法,結合實際業務進行實踐嘗試,積累起更加體系性的個人知識技能。
  • 自我考核:在專案中復現一個 Kaggle 獲勝方案,檢驗其效果,分析模型表現背後的原因,並嘗試進行改進。

演算法框架

資料處理框架

在專案實施過程中,會需要各類複雜的資料處理操作,因此熟練掌握此類框架就顯得尤為重要。目前行業的標準基本上會參照 Pandas DataFrame 的定義,在資料量較大的情況下,也有許多類似的框架,如 Spark,Dask,Modin,Mars 等支援分散式執行的 DataFrame,以及 cuDF,Vaex 等提升單機效能的改進實現。這方面經典的書籍可以參考 Wes McKinney 的《Python for Data Analysis》,在掌握基礎資料操作的基礎上,可以進而瞭解視窗函式,向量化效能最佳化等高階話題。另外 SQL 也可以做非常複雜的資料處理工作,有不少公司例如阿里會以 SQL 為主來構建資料處理流程,感興趣的同學也可以學習一下 SQL 中各種高階計算的使用及最佳化方法。
  • 自我考核:在已有專案中,能把至少三個使用 apply 方法的 pandas 處理修改成向量化執行,並測試效能提升。使用 window function 或其它方案來實現 lag 特徵,減少 join 次數。

機器學習框架

機器學習方面的新框架層出不窮,一方面我們需要掌握經典框架的使用方式,理解其模組構成,介面規範的設計,一定程度上來說其它新框架也都需要遵循這些業界標準框架的模組與介面定義。另一方面對於新框架或特定領域框架,我們需要掌握快速評估,上手使用,並且做一定改造適配的能力。一些比較經典的框架有:
  • 通用機器學習:scikit-learn,Spark ML,LightGBM

  • 通用深度學習:Keras/TensorFlow,PyTorch

  • 特徵工程:tsfresh, Featuretools,Feast

  • AutoML:hyperopt,SMAC3,nni,autogluon

  • 可解釋機器學習:shap,aix360,eli5,interpret

  • 異常檢測:pyod,egads

  • 視覺化:pyecharts,seaborn

  • 資料質量:cerberus,pandas_profiling,Deequ

  • 時間序列:fbprophet,sktime,pyts

  • 大規模機器學習:Horovod,BigDL,mmlspark

  • Pipeline:MLflow, metaflow,KubeFlow,Hopsworks

一般的學習路徑主要是閱讀這些框架的官方文件和 tutorial,在自己的專案中進行嘗試使用。對於一些核心介面,也可以閱讀一下相關的原始碼,深入理解其背後的原理。
  • 自我考核:在 LightGBM 框架下,實現一個自定義的損失函式,並跑通訓練與預測流程。

其它框架

其它比較常見且與演算法工程師日常工作會有一些聯絡的有 Web 框架,爬蟲框架等,最具有代表性的當屬 Flask 和 scrapy。這兩者背後各自又是很大一塊領域,尤其 web 開發更是保羅永珍。感興趣的同學還可以瞭解一下一些新興的基於 Python3 的框架,例如 FastAPI,其背後借鑑的許多現代框架的思想設計,包括資料驗證,序列化,自動文件,非同步高效能等,開拓一下知識面。
  • 自我考核:實現一個簡單的 model serving http 服務。

演算法工程交叉

大規模演算法執行

分散式訓練

在很多專案中,資料量達到十億級以上的情況下,單機訓練會難以支撐。因此分散式訓練也是實際工程落地中非常重要的一個主題。分散式訓練涉及到多機的通訊協同方式,最佳化演算法的改造,資料及模型的並行與聚合,以及框架的選擇和運維等話題,具體可以參考《分散式機器學習》。另外對於分散式系統,也可以參閱《資料密集型應用系統設計》這本神作,瞭解其背後原理。
  • 自我考核:能夠在多機上進行億級資料的 GBDT 模型訓練與預測。

高效能運算

在做大規模的資料訓練與推理時,近些年湧現出許多高效能運算最佳化的方法,例如從硬體方面,有各種超執行緒技術,向量化指令集,GPGPU,TPU 的應用等,從軟體方面,有針對數值計算場景的 OpenBLAS,有自動並行化的 OpenMP,有各種 codegen,JIT 技術下的執行時最佳化等。這方面可以學習的方向也很多,從基礎的並行程式設計,編譯原理及最佳化的知識開始,到 CUDA,OpenMP 的應用(例如 Nvidia 的 cuDNN,還有 LightGBM 中也用到了 OpenMP),Codegen,JIT 等技術在 Spark,TVM 等專案中的使用等,建議有深度效能最佳化需求時可以往這些方向做調研和學習。
  • 自我考核:能夠透過 LLVM JIT 來最佳化實現 Spark window function 的執行效能。

模型加速領域

這個方向分兩個部分,一塊是模型訓練方面,能夠做到加速,例如使用大 batch size,遷移學習,持續的線上 / 增量學習等手段,另一塊在模型預測方面,也有很多加速需求,比如模型引數量最佳化,模型壓縮,混合精度,知識蒸餾等技術手段,都是為了做到更高效能,更低資源消耗的模型預測推理。這方面業界有各個方向的文章和技術實現可以參考,比如經典的《Training ImageNet in 1 Hour》,MobileNet,TensorRT,二值網路等。
  • 自我考核:在典型的銷量預測場景中實現增量訓練與預測。

MLOps

編排排程

包含各類 pipeline 的編排與排程能力的支援,包括資料 pipeline,訓練 pipeline 和 serving pipeline 等。這方面比較常用的框架工具有 Airflow,DolphinScheduler,Cadence 等,需要掌握其基本的工作原理和使用方式,並能夠應用於離線實驗與線上執行。
  • 自我考核:使用 Airflow 完成一個標準的專案 pipeline 搭建與執行。

資料整合

相對於傳統的 DevOps,機器學習專案最大的區別在於資料方面的依賴會更加顯著與重要。這方面的話題包括資料血緣,資料質量保障,資料版本控制等,有各類工具可以借鑑使用,例如資料版本管理方面的 DVC,資料質量方面的 TFX Data Validation,Cerberus,Deequ 等。在方法論層面,《The ML Test Score》中給出了不少資料相關的具體測試方法,值得參考學習。
  • 自我考核:在專案中實現輸入資料的分佈測試,特徵工程測試及特徵重要性准入測試。

實驗管理

這部分也是 ML 專案的獨特之處,在開發過程中有大量的實驗及相應的結果輸出需要記錄,以指導後續調整最佳化的方向,並選擇最優結果來進行上線部署。這方面可以參考的專案有 MLflow,fitlog,wandb 等。當然對於單獨的專案來說,可能 online Excel 就能滿足需求了 :)
  • 自我考核:在實際專案中實行一套標準的實驗記錄手段,並能從中找出各類實驗嘗試帶來的精度提升的 top 5 分別是哪些操作。

Serving

目前我們的 serving 大多數是離線 batch 預計算的形式,所以主要依賴的技術手段是各類離線 inference 的方法,例如直接使用 model predict 介面,使用 mmlspark 等做大規模並行 inference 等。如果涉及到線上 serving,情況會更加複雜,例如線上 pipeline 的執行,實時特徵獲取,low latency/high throughput 的 serving 服務等,可以參考 TF Serving,MLeap,H2O,PredictionIO,PMML/PFA/ONNX 等開發標準模型格式等。
  • 自我考核:部署一個實時預測服務,能夠根據使用者輸入產生相應的預測結果。

CI/CD

軟體工程中的持續整合,持續部署已經成為一種標準實踐,在演算法專案中,額外引入了資料這個維度的複雜性,帶來了一些新的挑戰。在這個方向上,幾個主要話題包括自動化測試,pipeline 打包部署,持續監控運維等,可以參考 Martin Fowler 關於 CD4ML 的文章。工具系統層面,可以學習傳統的 Jenkins,也有一些新選擇例如 CircleCI,GoCD,VerCD(Uber)等。
  • 自我考核:透過 Jenkins 實現 pipeline 自動測試,打包,上線流程。

系統監控

在整個專案上線後,需要對系統的各個環節進行監控,並對各種異常情況作出響應。例如輸入資料的監控,判別測試資料與訓練資料的分佈是否有偏移,整個執行 pipeline 的監控,判別是否有執行失敗丟擲異常的情況,對於預測輸出的監控,確保沒有異常的預測輸出值,也包括對於系統計算資源等方面的監控,確保不會因為資源不足導致業務受到影響等。在監控資訊收集,基礎上,還需要配套一系列的自動告警通知,日誌追蹤排查等。這方面的工具框架包括 TF data validation 這類專門針對演算法專案的新產品,也有 elasicsearch + kibana 這類傳統產品。
  • 自我考核:將三個專案中做過的問題排查改造成常規監控手段,支援自動的問題發現,告警通知,如有可能,提供自動化或半自動化的問題排查解決方案。

MLOps 系統

MLOps 整體是一個比較大的話題,在這方面有很多產品和系統設計方面的實踐可以參考學習。例如 Uber 的 Michelangelo 系列文章,Facebook 的 FBLearner,neptune.ai,dataiku,domino 等,雖然沒有開源,但是其背後的很多設計理念,演進思考,白皮書等都非常值得我們學習。在開源界也有很多可以參考的專案,例如 MLflow,Kubeflow,Metaflow,TFX 等,可以學習他們的設計理念,Roadmap,以及實現細節等。
  • 自我考核:總結各個 MLOps 產品的功能模組矩陣對比,能夠根據專案需求來進行產品選型與使用。

工程深入方向

資料庫

資料庫原理

在平時工作中,我們有大量的場景需要用到資料庫。從客戶資料的對接,資料集的管理和使用,到各種業務系統的資料表設計及最佳化等,都需要對資料庫的運作原理,適用場景,運維使用,效能最佳化等方面有一定的瞭解。常見的需要掌握的概念有 OLTP vs OLAP,事務,索引,隔離級別,ACID 與 CAP 理論,資料同步,資料分片,SQL 語法,ORM 等。從底層原理看,會涉及到資料,索引,及日誌等儲存引擎方面,以及各種計算查詢引擎,包括分散式系統的設計與實現。這方面推薦的學習資料有《資料庫系統內幕》及《資料密集型應用系統設計》。
  • 自我考核:能夠理解 SQL 執行計劃,並能夠根據執行計劃來做索引或查詢調優。

關係型資料庫

目前常用的關係型資料庫主要是 MySQL 和 PostgreSQL,主要需要掌握的是日常的一些 SQL 操作,例如 DML(增刪改查),DDL(建立表,修改索引等),DCL(許可權相關)。在此基礎上還可以進一步瞭解一些如資料型別,高階計算,儲存引擎,部署運維,正規化概念與表結構設計等方面的話題。對於高階話題這塊,推薦《高效能 MySQL》與《高可用 MySQL》。
  • 自我考核:在 MySQL 中設計相關表結構,儲存實際專案中的一系列中間資料集。

NoSQL 資料庫

常用的 NoSQL 資料庫有幾類,KV 儲存(Redis),文件資料庫(MongoDB),Wide-column 儲存(Cassandra,HBase)以及圖資料庫(Neo4j)。在目前我們的演算法專案中,比較有可能會用到的主要是 Redis 這類 KV 儲存(也可能把 Cassandra 之類當泛 KV 來用),或者更新一點的類似 Delta Lake 的儲存系統。建議學習瞭解一下這類 KV 儲存,以及分散式資料庫的常見操作方式,以及基礎的運維排查,效能最佳化方法。
  • 自我考核:考慮一個線上模型服務的場景,使用者輸入作為基礎特徵,使用類似 Redis 的 KV 系統,實現實時獲取其它特徵,並進行模型預測。

雲端計算

基礎架構

IT 系統總體的發展趨勢在往雲端計算方向演進,即使是自建的基礎設施,也會採用雲端計算的一套構建方式,讓開發者不用過多的關注底層計算儲存資源的部署運維。對於應用開發者來說,需要了解一些基礎架構方面的知識,例如各類虛擬化及容器技術,配置管理,容器編排等,便於在日常工作中使用相關技術來管理和釋出應用。從工具層面看,Docker 與 k8s 等技術發展速度較快,主要還是根據官方文件來學習為主。浙大之前出版的《Docker - 容器與容器雲》一書中有一些更深入的話題的探討,另外《Kubernetes in Action》中也值得一讀。從方法論層面看,《Infrastructure as Code》和《Site Reiliability Engineering》是兩本非常不錯的學習資料。與演算法應用結合的虛擬化,運維,持續整合等都是比較新的領域,需要我們探索出一條可行路線。
  • 自我考核:對於已有的演算法專案,總結制定一套開發,測試,釋出,運維的標準流程,且儘可能自動化執行。

分散式儲存

前些年最流行的分散式儲存是脫胎於 Google 經典的 GFS 論文實現的 HDFS,不過隨著硬體技術的發展,計算儲存分離思想的逐漸興起,不但靈活性更高,成本更低,且各自架構的複雜度也大大降低了。因此目前更建議學習簡單的 object store 形式的分散式儲存,例如 s3,minio 等。在此基礎上的一些儲存系統,例如 Delta Lake,提供了事務,高效的 upsert,time travel 等功能,也值得關注與學習。原理方面,還是推薦《資料密集型應用設計》這本。
  • 自我考核:在專案中實現不同機器能夠訪問同一個 s3 路徑的檔案,並進行正常的資料讀寫,模型檔案讀寫等功能。

分散式計算

大資料時代的分散式計算的鼻祖來自於 Google 經典的 MapReduce 論文,後續在 Hadoop 系統中做了開源實現,在前幾年是非常火熱的一項技術。目前業界的主流是 Spark 和 Flink,前者在批處理計算中處於霸者地位,後者是流處理領域的領先者。目前我們的業務應用中,Spark 是比較常用的分散式計算引擎,其基本操作相關內容比較簡單,參考官方文件或者《Spark 快速大資料分析》即可。後續的主要難點會有大資料量下的問題排查與效能調優,執行復雜計算或與 Python 相關 UDF 的互動配合方式等。這方面需要對 Spark 的系統架構,內部原理有一定了解,例如 master,worker,driver,executor 等之間的關係,lazy evaluation,DAG 的 lineage 與 stage 概念,shuffle 最佳化,wholestage codegen 等技術細節。這方面暫時沒有找到比較好的資料,主要還是依賴實際問題解決的經驗積累。
  • 自我考核:用 Spark 來實現專案中的特徵工程,並在一定資料量情況下取得比單機 Pandas 更好的效能效果。

其它話題

其它雲服務基礎設施還包括分散式資料庫,訊息佇列,zk/raft 分散式協作系統,虛擬網路,負載均衡等。這些話題離演算法應用方面會比較遠一些,基本上達到遇到需求時會使用的能力即可,在這裡不做展開。

演算法深入方向

AutoML

超參最佳化

自動化機器學習中比較傳統的一塊是超引數最佳化,進而可以推廣到整個 pipeline 的超參最佳化,包括資料預處理,特徵工程,特徵選擇,模型選擇,模型調優,後處理等部分。目前業界應用比較廣泛的技術手段主要是隨機搜尋,貝葉斯最佳化,進化演算法,Hyperband/BOHB 等,在特徵工程方面有 Featuretools,tsfresh,AutoCrossing 等自動化特徵工程工具。學術界有一些進一步的探索研究,包括 multi-fidelity 最佳化,多工最佳化,HPO 結合 ensemble learning,pipeline planning,data diff 自動資料分佈探測等方面。可以參考 http://automl.org 上的各類參考資料與書籍進行學習瞭解。主要難點包括 automl 演算法的泛化能力,scalability,整體 pipeline 組合的搜尋與生成,針對不同學習演算法的自動最佳化手段等。
  • 自我考核:瞭解超參最佳化的基礎概念,能夠在專案中應用框架工具來實現模型超參的貝葉斯最佳化流程。

元學習

Meta learning 是近年來非常活躍的一個新興領域,其主要思路是希望能透過元學習模型方法,去積累建模調優的先驗知識,跨任務推斷模型效果並 warm start 新的訓練任務,或者指導學習演算法來進行更高效的具體任務的訓練過程。這方面在工業界的主要應用基本上集中在建模調優先驗知識的積累方面,比如透過一系列公開資料集搜尋尋找出表現較好的起始引數,用於指導在新任務上做超參最佳化的起始搜尋點。學術研究中除了 configuration space 的研究,還包括從 learning curve 中進行學習推斷,元特徵提取與建模,HTN planning 在 pipeline 構建中的應用,以及 MAML 等 few-shot learning 方向的探索。這方面推薦 Lilian Weng 的一系列文章(https://lilianweng.github.io/lil-log/2018/11/30/meta-learning.html),以及 http://automl.org 網站上的資料。
  • 自我考核:設計一系列 meta feature 與 meta learning 手段,實現對新任務的引數選擇的初始化。

NAS

AutoML 領域比較火,但也是比較特別的一個方向,目前需要大量的計算資源投入才能做這方面的研究與嘗試,因此主要建議瞭解一下這個方向的一些工作即可,不做深入探索學習。

AutoML 系統

自動化機器學習相關的框架工具也非常多,比較有代表性的框架有 auto-sklearn(來自 http://automl.org 團隊),nni(microsoft),auto-gluon(amazon),H2O,ray tune 等,在工具級別也有如 hyperopt,SMAC3,featuretools 等。可以透過學習這些工具框架,瞭解 AutoML 系統的架構與實現方式,並應用到實際專案中。
  • 自我考核:使用一種 AutoML 系統來進行專案的模型自動最佳化,並與手工最佳化的結果進行比較,看是否有所提升,及尋找背後的原因。

模型解釋

模型解釋技術

主要有三個方面,一是模型本身的解釋性,例如線性迴歸,決策樹等,模型結構簡單,根據其原理,可以直接對預測結果,特徵使用等方面給出解釋。另外一些複雜模型,例如 EBM,神經網路,Bayesian rule lists,SLIMs 等,也可以利用一些本身的特性給出一些解釋,例如 GradCAM 方法等。二是模型無關的解釋方法,包括經典的 PDP,ICE 等特徵圖,LIME 等 surrogate model 方法,以及基於博弈論的 Shapley 方法。三是基於 sample 的解釋方法,例如 conterfactual explanations,adversarial examples,prototypes,influential instances,kNN 等,不過看起來這類方法對於計算的開銷一般都會比較大,不太容易在工程中實現落地。這方面的資料可以學習《Interpretable Machine Learning》和《Explainable AI》(關於深度學習的內容會更多)。另外學術界也有很多前沿探索,比如針對模型解釋的降維工作,自動的時間序列分析及報告生成,因果模型,模型公平性及社會影響等方面,可以保持關注。
  • 自我考核:理解 LIME,Shapley 的運作原理,並分析其侷限性,嘗試提出改進方案。

模型解釋應用

從工具框架方面,有許多可以使用的開源專案,例如微軟的 interpret,eli5,shap,AIX360 等。另外也有一些非傳統意義上的模型解釋,例如 manifold,tensorboard 這類模型 debugging 工具,自動化的誤差分析與模型改進方案,因果模型框架,模型公平性評估與糾正工具等,都可以涵蓋在廣義的模型解釋領域中。在工具基礎上,如何結合業務領域知識,給出更有針對性的解釋方案,也是值得思考深挖的方向。
  • 自我考核:使用 shap,eli5 等工具來進行模型解釋,並在此基礎上形成面向開發者的模型 debug,誤差分析及改進方案,或形成面向業務的 what-if 分析看板。

總結

目前機器學習應用領域還在高速發展與演進過程中,除了上述提到的技能方向,後續很可能會不斷有新的主題引入進來,需要練就快速學習並應用落地的能力。在掌握前面程式設計,軟體工程,機器學習的基礎上,後半部分的研究方向,大家可以根據個人興趣,選擇幾個進行深入探索與實踐。僅閱讀相關書籍和文章,只能對知識內容有一個初步的認識,必須要透過深入的動手實踐,反覆試錯思考和修正,才能逐漸內化為自己的技能,並構建起較為堅實的知識體系。

作者介紹

演算法工程師福利:超實用技術路線圖

周遠(花名:位元組),觀遠資料聯合創始人與首席資料科學家。致力於演算法前沿技術在泛零售消費領域的應用落地,深度參與主導了多個 AI 專案在行業頭部,世界五百強客戶的應用和上線,也和團隊一起多次斬獲智慧零售方向的 Hackathon 冠軍。曾就職於微策略,阿里雲從事商業智慧產品與雲端計算系統研發工作,擁有十多年的行業經驗。目前研究興趣主要包括可解釋機器學習,AutoML 和大規模機器學習系統方向。

相關文章