機器學習,說簡單就簡單,說難還真難,對於還沒入行的同學,大概最難的是如何入門機器學習?應該掌握哪些知識?看什麼書最高效?如何避免繞彎?如何利用已有基礎進一步提高水平??束手無策。
為幫助對機器學習感興趣同學快速高效入門機器學習,AI100特邀中科院教授冒老師,為大家帶來系列直播課《機器學習大咖版》,課程從零開始講解機器學習知識,層層遞進,直通機器學習的本質及其應用。
直播時間丨10月11日起,每週三、五晚,共12節
活動丨早鳥價399元,報名從速
適合人群丨在校大學生/零基礎/對機器學習感興趣想要入行的小夥伴
冒老師
中科院副教授
計算機博士,現在中科院從事科研教學工作,十餘年機器學習教學經驗,主持國家級科研專案3項,研究方向為機器學習、計算機視覺及多媒體處理。
在CSDN學院授課過《XGBoost從基礎到實戰》《機器學習之數學基礎》等系列精品直播,以專業實力爆表,親和力爆表,課程群細緻認真爆表,收穫一大波冒菜(冒老師粉絲專屬名?)。
第一講 機器學習簡介 10月11日
課程內容 | 1. 機器學習定義; 2. 機器學習行業應用舉例; 3. 機器學習任務:分類、迴歸、聚類、降維、半監督學習、遷移學習、強化學習; 4. 機器學習演算法的組成部分:目標函式(損失函式+正則)、優化方法; 5. 模型評估和模型選擇:模型複雜度、overfitting、交叉驗證、超引數空間、網格搜尋… |
案例 | 波士頓房價。 包含知識點—— 損失函式、L1/L2正則、最小二乘、梯度下降/隨機梯度下降。 |
課程目標 | 熟悉機器學習領域的常用術語,瞭解機器學習在AI環境中的位置。 |
第二講 第一個機器學習例項 10月13日
課程內容 | 1. 學習環境配置:常用軟體、環境配置及機器學習庫 anaconda:Python、Python科學計算包(NumPy,SciPy,Pandas)、Python資料視覺化工具包(Matplotlib, seaborn)、Python機器學習庫(scikit-learn) 2. 特徵工程初步 3. 線性迴歸實現 |
案例 | 波士頓房價預測案例詳解。 包含知識點—— 資料集探索(Pandas、seaborn); 複習模型評估和模型選擇:交叉驗證、網格搜尋(Sklearn)。 |
課程目標 | 學會用機器學習工具包從頭到尾用線性迴歸解決一個實際問題。 |
第三講 Logistic迴歸分析及神經網路 10月18日
課程內容 | 1. 損失函式:logistic損失 2. 優化演算法:IRLS(梯度下降、牛頓法)、BP演算法 3. 正則化:L1/ L2 4. 複習模型評估 |
案例 | Otto商品分類 包含內容—— 用Logistic迴歸和神經網路實現Otto商品分類 |
課程目標 | 理解分類任演算法Logistic迴歸和神經網路原理,複習資料集探索,並學會用sklearn用Logistic |
第四講 支援向量機(SVM) 10月20日
課程內容 | 1. 損失函式:Hingloss損失 優化演算法:SOM(神經網路聚類演算法)支援向量機——SMO(序列最小最優化演算法 2. 正則化:L2/L1 3. 其他:最小間隔、核方法、支援向量迴歸 |
案例 | 用SVM實現Otto商品分類,重點比較SVM(不同引數正則引數和核函式)與Logistic迴歸 |
課程目標 | 學會用SVM模型分類任務 |
第五講 降維與矩陣分解 10月25日
課程內容 | 1. 主成分分析(PCA) 2. 獨立成分分析(ICA) 3. 非負矩陣分解(NFM) 4. 隱因子模型(LFM) |
案例 | 人臉影象特徵提取: PCA、ICA、NFM LFM在推薦系統部分案例進行講解 |
課程目標 | 學習用降維技術對高維特徵進行降維 |
第六講 聚類 10月27日
課程內容 | 1. Kmeans聚類和混合高斯模型GMM(EM演算法) 2. 吸引子傳播聚類演算法(Affinity Propagation聚類演算法) 3. Density Peak聚類演算法 |
案例 | 1、Iris資料聚類分析:Kmeans、AP what makes Paris 2、Paris: 判別特徵發現:聚類分類迭代(SVM、Kmeans) |
課程目標 | 學會常用的聚類演算法 |
第七講 特徵工程 11月1日
課程內容 | 1、 資料預處理 2、 特徵編碼:標籤編碼、Dummy (One hot) 編碼、後驗均值編碼 3、 特徵組合 4、 特徵選擇 |
案例 | 案例:Rent Listing Requries資料探索及特徵工程 資料預處理:缺失值處理、異常值處理、資料相關性分析 資料視覺化 特徵編碼: |
課程目標 | 學會資料預處理常用方法及特徵編碼方法 |
第八講 決策樹及基於樹的整合模型:隨機森林 11月3日
課程內容 | 1. 損失函式:Gini係數 2. 正則:L1/L2正則、及早停止 3. 優化:分裂 4. Bagging &隨機森林 |
案例 | 蘑菇分類 決策樹、隨機森林、Logistic迴歸 引數調優和網格搜尋 |
課程目標 | 學習Bagging整合思想及基於決策樹的整合演算法:隨機森林 |
第九講 梯度提升決策樹(GBDT) 11月8日
課程內容 | 1. 第一個Boosting演算法:AdaBoost 2. 流行GBDT模型:xgboost、lightGBM |
案例 | Otto商品分類:xgboost及引數調優 |
課程目標 | 學會kaggle神器xgboost原理及其在例項任務上的應用 |
第十講 推薦系統與廣告點選率(CTR)預估(1) 11月10日
課程內容 | 1. 協同過濾(Collaborative filtering,CF) 2. 基於內容的過濾 3. FFM & LFM 4. 關聯規則 |
案例 | Expedia Hotel Recommendations |
課程目標 | 學習推薦系統和CTR預估的基本技術 |
第十一講 推薦系統與廣告點選率(CTR)預估(2) 11月15日
課程內容 | 1、 排序學習 2、模型評估 |
案例 | Expedia Hotel Recommendations |
課程目標 | 通過實際案例學會推薦系統實現 |
第十二講 模型融合 11月17日
課程內容 | 1. Blending 2. Stacking |
案例 | Otto商品分類/Expedia Hotel Recommendations:Stacking |
課程目標 | 出師,準備做一隻機器學習大咖 |
加入課程微信群
掃碼加課程小助手,回覆“大咖”,進課程討論群一起做機器學習大咖!