成為一名機器學習大咖到底有多難?

AI科技大本營發表於2017-09-11

成為一名機器學習大咖到底有多難?

機器學習,說簡單就簡單,說難還真難,對於還沒入行的同學,大概最難的是如何入門機器學習?應該掌握哪些知識?看什麼書最高效?如何避免繞彎?如何利用已有基礎進一步提高水平??束手無策。

為幫助對機器學習感興趣同學快速高效入門機器學習,AI100特邀中科院教授冒老師,為大家帶來系列直播課《機器學習大咖版》,課程從零開始講解機器學習知識,層層遞進,直通機器學習的本質及其應用。

直播時間丨10月11日起,每週三、五晚,共12節

活動丨早鳥價399元,報名從速

適合人群丨在校大學生/零基礎/對機器學習感興趣想要入行的小夥伴

成為一名機器學習大咖到底有多難?

冒老師

中科院副教授

計算機博士,現在中科院從事科研教學工作,十餘年機器學習教學經驗,主持國家級科研專案3項,研究方向為機器學習、計算機視覺及多媒體處理。

在CSDN學院授課過《XGBoost從基礎到實戰》《機器學習之數學基礎》等系列精品直播,以專業實力爆表,親和力爆表,課程群細緻認真爆表,收穫一大波冒菜(冒老師粉絲專屬名?)。

第一講  機器學習簡介  10月11日

課程內容1. 機器學習定義;
2. 機器學習行業應用舉例;
3. 機器學習任務:分類、迴歸、聚類、降維、半監督學習、遷移學習、強化學習;

4. 機器學習演算法的組成部分:目標函式(損失函式+正則)、優化方法;

5. 模型評估和模型選擇:模型複雜度、overfitting、交叉驗證、超引數空間、網格搜尋…

案例波士頓房價。
包含知識點——
損失函式、L1/L2正則、最小二乘、梯度下降/隨機梯度下降。
課程目標熟悉機器學習領域的常用術語,瞭解機器學習在AI環境中的位置。


第二講  第一個機器學習例項  10月13日

課程內容1. 學習環境配置:常用軟體、環境配置及機器學習庫
anaconda:Python、Python科學計算包(NumPy,SciPy,Pandas)、Python資料視覺化工具包(Matplotlib, seaborn)、Python機器學習庫(scikit-learn)
2. 特徵工程初步
3. 線性迴歸實現
案例波士頓房價預測案例詳解。
包含知識點——
資料集探索(Pandas、seaborn);
複習模型評估和模型選擇:交叉驗證、網格搜尋(Sklearn)。

課程目標

學會用機器學習工具包從頭到尾用線性迴歸解決一個實際問題。

第三講  Logistic迴歸分析及神經網路  10月18日

課程內容1. 損失函式:logistic損失
2. 優化演算法:IRLS(梯度下降、牛頓法)、BP演算法
3. 正則化:L1/ L2
4. 複習模型評估
案例Otto商品分類

包含內容——
用Logistic迴歸和神經網路實現Otto商品分類
課程目標理解分類任演算法Logistic迴歸和神經網路原理,複習資料集探索,並學會用sklearn用Logistic


第四講  支援向量機(SVM)  10月20日

課程內容1. 損失函式:Hingloss損失
優化演算法:SOM(神經網路聚類演算法)支援向量機——SMO(序列最小最優化演算法
2. 正則化:L2/L1
3. 其他:最小間隔、核方法、支援向量迴歸
案例用SVM實現Otto商品分類,重點比較SVM(不同引數正則引數和核函式)與Logistic迴歸
課程目標學會用SVM模型分類任務


第五講  降維與矩陣分解  10月25日

課程內容1. 主成分分析(PCA)
2. 獨立成分分析(ICA)
3. 非負矩陣分解(NFM)
4. 隱因子模型(LFM)
案例人臉影象特徵提取:
PCA、ICA、NFM

LFM在推薦系統部分案例進行講解
課程目標學習用降維技術對高維特徵進行降維


第六講  聚類  10月27日

課程內容1. Kmeans聚類和混合高斯模型GMM(EM演算法)
2. 吸引子傳播聚類演算法(Affinity Propagation聚類演算法)
3. Density Peak聚類演算法
案例1、Iris資料聚類分析:Kmeans、AP
what makes Paris 2、Paris: 判別特徵發現:聚類分類迭代(SVM、Kmeans)
課程目標學會常用的聚類演算法


第七講  特徵工程  11月1日

課程內容1、 資料預處理
2、 特徵編碼:標籤編碼、Dummy (One hot) 編碼、後驗均值編碼
3、 特徵組合
4、 特徵選擇
案例案例:Rent Listing Requries資料探索及特徵工程
資料預處理:缺失值處理、異常值處理、資料相關性分析
資料視覺化
特徵編碼:
課程目標學會資料預處理常用方法及特徵編碼方法


第八講  決策樹及基於樹的整合模型:隨機森林  11月3日

課程內容1. 損失函式:Gini係數
2. 正則:L1/L2正則、及早停止
3. 優化:分裂
4. Bagging &隨機森林
案例蘑菇分類
決策樹、隨機森林、Logistic迴歸
引數調優和網格搜尋
課程目標學習Bagging整合思想及基於決策樹的整合演算法:隨機森林


第九講  梯度提升決策樹(GBDT)  11月8日

課程內容1. 第一個Boosting演算法:AdaBoost
2. 流行GBDT模型:xgboost、lightGBM
案例Otto商品分類:xgboost及引數調優
課程目標學會kaggle神器xgboost原理及其在例項任務上的應用


第十講  推薦系統與廣告點選率(CTR)預估(1)  11月10日

課程內容1. 協同過濾(Collaborative filtering,CF)
2. 基於內容的過濾
3. FFM & LFM
4. 關聯規則
案例Expedia Hotel Recommendations
課程目標學習推薦系統和CTR預估的基本技術


第十一講  推薦系統與廣告點選率(CTR)預估(2)  11月15日

課程內容1、 排序學習
2、模型評估
案例Expedia Hotel Recommendations
課程目標通過實際案例學會推薦系統實現


第十二講  模型融合  11月17日

課程內容1. Blending
2. Stacking
案例Otto商品分類/Expedia Hotel Recommendations:Stacking
課程目標出師,準備做一隻機器學習大咖


加入課程微信群

成為一名機器學習大咖到底有多難?


掃碼加課程小助手,回覆“大咖”,進課程討論群一起做機器學習大咖!



相關文章