極客時間出品的《AI技術內參》由洪亮劼所作,洪亮劼是Etsy資料科學主管,前雅虎研究院資深科學家。本專欄講你的360度人工智慧資訊助理。
《AI技術內參》專欄簡介
人工智慧科學家吳恩達反覆強調,“AI is the new electricity” 。今天的人工智慧,猶如一百年前的電,正在給人類帶來同樣巨大,甚至更加精彩的變化。
毋庸置疑,這是一個屬於人工智慧的時代。人工智慧正在滲透到各行各業,並且離我們越來越近,新的時代中,我們應該如何利用好新武器?
“AI技術內參”專欄將為你係統剖析人工智慧核心技術,精講人工智慧國際頂級學術會議核心論文,解讀技術發展前沿與最新研究成果,分享資料科學家以及資料科學團隊的養成祕笈。希望能夠幫助你在人工智慧領域找到最佳學習路徑,不斷進階。
《AI技術內參》講師介紹
洪亮劼,電子商務平臺Etsy資料科學主管,前雅虎研究院高階研發經理。長期從事機器學習與人工智慧的基礎以及應用研究,對推薦系統、搜尋引擎、計算廣告學、社交網路以及自然語言處理等領域有非常深入的理解。
他在國際頂級學術會議中發表重要論文20餘篇,文章引用量超過2100次(H-Index:17)。長期擔任多個國際著名會議及期刊的評審委員會成員和審稿人,並且組織過多個關於推薦、搜尋、使用者體驗優化的國際研討會,擁有3項美國專利。
洪亮劼有豐富的學術研究和工業界實踐經驗,這些經驗給予他全面、獨特的視角,和他一起看懂人工智慧,也是這個專欄的初心。
《AI技術內參》模組
“AI技術內參”專欄精心打磨了四大模組,具體如下:
模組一:人工智慧國際頂級學術會議深入解讀與技術展望(10周左右)
精選10個國際人工智慧頂級學術會議,剖析其論文精髓,解讀最新技術成果,全覽人工智慧發展趨勢。模組中包含的頂級會議有機器學習方面的ICML、NIPS;機器視覺方面的CVPR、ICCV;自然語言處理方面的ACL、EMNLP;資料探勘和資料科學方面的KDD、WSDM;資訊檢索和搜尋方面的SIGIR;網際網路綜合方面的WWW。
模組二:人工智慧核心技術剖析(32周左右)
分專題講解人工智慧和機器學習的核心技術,幫你撥開層層迷霧,快速入門。這其中包括搜尋核心技術、推薦系統核心技術、廣告系統核心技術、自然語言處理及文字處理核心技術、計算機視覺核心技術等。
模組三:人工智慧工程師、科學家的養成和人工智慧團隊的構建(8周左右)
國內外各大公司都在紛紛組建自己的人工智慧團隊,洪亮劼將結合個人經歷,分享人工智慧團隊的組建以及運作經驗。另外,針對立志成為資料科學家或者人工智慧科學家的同學,他將會梳理對應的技能圖譜以及知識脈絡,並進行系統剖析。
模組四:人工智慧業界熱點(2周左右)
在這整個一年的課程當中,相信會有很多的與人工智慧相關的行業或者技術熱點出現。洪亮劼也會結合這些熱點,即時解讀最新的業界動態,探討最新的研究成果,分享個人洞見。
《AI技術內參》課程目錄
開篇詞 (1講)
開篇詞 | 你的360度人工智慧資訊助理
搜尋核心技術 (28講)
018 | 經典搜尋核心演算法:TF-IDF及其變種
019 | 經典搜尋核心演算法:BM25及其變種(內附全年目錄)
020 | 經典搜尋核心演算法:語言模型及其變種
021 | 機器學習排序演算法:單點法排序學習
022 | 機器學習排序演算法:配對法排序學習
023 | 機器學習排序演算法:列表法排序學習
024 | “查詢關鍵字理解”三部曲之分類
025 | “查詢關鍵字理解”三部曲之解析
026 | “查詢關鍵字理解”三部曲之擴充套件
027 | 搜尋系統評測,有哪些基礎指標?
028 | 搜尋系統評測,有哪些高階指標?
029 | 如何評測搜尋系統的線上表現?
030 | 文件理解第一步:文件分類
031 | 文件理解的關鍵步驟:文件聚類
032 | 文件理解的重要特例:多模文件建模
033 | 大型搜尋框架巨集觀視角:發展、特點及趨勢
034 | 多輪打分系統概述
035 | 搜尋索引及其相關技術概述
036 | PageRank演算法的核心思想是什麼?
037 | 經典圖演算法之HITS
038 | 社群檢測演算法之“模組最大化 ”
039 | 機器學習排序演算法經典模型:RankSVM
040 | 機器學習排序演算法經典模型:GBDT
041 | 機器學習排序演算法經典模型:LambdaMART
042 | 基於深度學習的搜尋演算法:深度結構化語義模型
043 | 基於深度學習的搜尋演算法:卷積結構下的隱含語義模型
044 | 基於深度學習的搜尋演算法:區域性和分佈表徵下的搜尋模型
覆盤 1 | 搜尋核心技術模組
推薦系統核心技術 (22講)
063 | 簡單推薦模型之一:基於流行度的推薦模型
064 | 簡單推薦模型之二:基於相似資訊的推薦模型
065 | 簡單推薦模型之三:基於內容資訊的推薦模型
066 | 基於隱變數的模型之一:矩陣分解
067 | 基於隱變數的模型之二:基於迴歸的矩陣分解
068 | 基於隱變數的模型之三:分解機
069 | 高階推薦模型之一:張量分解模型
070 | 高階推薦模型之二:協同矩陣分解
071 | 高階推薦模型之三:優化複雜目標函式
072 | 推薦的Exploit和Explore演算法之一:EE演算法綜述
073 | 推薦的Exploit和Explore演算法之二:UCB演算法
074 | 推薦的Exploit和Explore演算法之三:湯普森取樣演算法
075 | 推薦系統評測之一:傳統線下評測
076 | 推薦系統評測之二:線上評測
077 | 推薦系統評測之三:無偏差估計
078 | 現代推薦架構剖析之一:基於線下離線計算的推薦架構
079 | 現代推薦架構剖析之二:基於多層搜尋架構的推薦系統
080 | 現代推薦架構剖析之三:複雜現代推薦架構漫談
081 | 基於深度學習的推薦模型之一:受限波茲曼機
082 | 基於深度學習的推薦模型之二:基於RNN的推薦系統
083 | 基於深度學習的推薦模型之三:利用深度學習來擴充套件推薦系統
覆盤 2 | 推薦系統核心技術模組
自然語言處理及文字處理核心技術 (19講)
007 | LDA模型的前世今生
084 | LDA變種模型知多少
085 | 針對大規模資料,如何優化LDA演算法?
086 | 基礎文字分析模型之一:隱語義分析
087 | 基礎文字分析模型之二:概率隱語義分析
088 | 基礎文字分析模型之三:EM演算法
089 | 為什麼需要Word2Vec演算法?
090 | Word2Vec演算法有哪些擴充套件模型?
091 | Word2Vec演算法有哪些應用?
092 | 序列建模的深度學習利器:RNN基礎架構
093 | 基於門機制的RNN架構:LSTM與GRU
094 | RNN在自然語言處理中有哪些應用場景?
095 | 對話系統之經典的對話模型
096 | 任務型對話系統有哪些技術要點?
097 | 聊天機器人有哪些核心技術要點?
098 | 什麼是文件情感分類?
099 | 如何來提取情感“實體”和“方面”呢?
100 | 文字情感分析中如何做意見總結和搜尋?
覆盤 3 | 自然語言處理及文字處理核心技術模組
廣告系統核心技術 (19講)
006 | Google的點選率系統模型
105 | 廣告系統概述
106 | 廣告系統架構
107 | 廣告回饋預估綜述
108 | Facebook的廣告點選率預估模型
109 | 雅虎的廣告點選率預估模型
110 | LinkedIn的廣告點選率預估模型
111 | Twitter的廣告點選率預估模型
112 | 阿里巴巴的廣告點選率預估模型
113 | 什麼是“基於第二價位的廣告競拍”?
114 | 廣告的競價策略是怎樣的?
115 | 如何優化廣告的競價策略?
116 | 如何控制廣告預算?
117 | 如何設定廣告競價的底價?
118 | 聊一聊“程式化直接購買”和“廣告期貨”
119 | 歸因模型:如何來衡量廣告的有效性
120 | 廣告投放如何選擇受眾?如何擴充套件受眾群?
121 | 如何利用機器學習技術來檢測廣告欺詐?
覆盤 4 | 廣告系統核心技術模組
計算機視覺核心技術 (13講)
140 | 什麼是計算機視覺?
141 | 掌握計算機視覺任務的基礎模型和操作
142 | 計算機視覺中的特徵提取難在哪裡?
143 | 基於深度學習的計算機視覺技術(一):深度神經網路入門
144 | 基於深度學習的計算機視覺技術(二):基本的深度學習模型
145 | 基於深度學習的計算機視覺技術(三):深度學習模型的優化
146 | 計算機視覺領域的深度學習模型(一):AlexNet
147 | 計算機視覺領域的深度學習模型(二):VGG & GoogleNet
148 | 計算機視覺領域的深度學習模型(三):ResNet
149 | 計算機視覺高階話題(一):影像物體識別和分割
150 | 計算機視覺高階話題(二):視覺問答
151 | 計算機視覺高階話題(三):產生式模型
覆盤 5 | 計算機視覺核心技術模組
資料科學家與資料科學團隊養成 (25講)
001 | 如何組建一個資料科學團隊?
003 | 資料科學家基礎能力之概率統計
004 | 資料科學家基礎能力之機器學習
005 | 資料科學家基礎能力之系統
008 | 曾經輝煌的雅虎研究院
009 | 資料科學家高階能力之分析產品
010 | 資料科學家高階能力之評估產品
011 | 資料科學家高階能力之如何系統提升產品效能
045 | 職場話題:當資料科學家遇見產品團隊
046 | 職場話題:資料科學家應聘要具備哪些能力?
047 | 職場話題:聊聊資料科學家的職場規劃
054 | 資料科學團隊養成:電話面試指南
055 | 資料科學團隊養成:Onsite面試面面觀
056 | 成為“香餑餑”的資料科學家,如何衡量他們的工作呢?
057 | 人工智慧領域知識體系更新週期只有5~6年,資料科學家如何培養?
058 | 資料科學家團隊組織架構:水平還是垂直,這是個問題
122 | 資料科學家必備套路之一:搜尋套路
123 | 資料科學家必備套路之二:推薦套路
124 | 資料科學家必備套路之三:廣告套路
137 | 如何做好人工智慧專案的管理?
138 | 資料科學團隊必備的工程流程三部曲
139 | 資料科學團隊怎麼選擇產品和專案?
155 | 微軟研究院:工業界研究機構的楷模
156 | 聊一聊谷歌特立獨行的混合型研究
覆盤 6 | 資料科學家與資料科學團隊是怎麼養成的?
人工智慧國際頂級會議 (31講)
002 | 聊聊2017年KDD大會的時間檢驗獎
012 | 精讀2017年KDD最佳研究論文
013 | 精讀2017年KDD最佳應用資料科學論文
015 | 精讀2017年EMNLP最佳長論文之一
016 | 精讀2017年EMNLP最佳長論文之二
017 | 精讀2017年EMNLP最佳短論文
048 | 精讀2017年ICCV最佳研究論文
049 | 精讀2017年ICCV最佳學生論文
050 | 如何將“深度強化學習”應用到視覺問答系統?
051 | 精讀2017年NIPS最佳研究論文之一:如何解決非凸優化問題?
052 | 精讀2017年NIPS最佳研究論文之二:KSD測試如何檢驗兩個分佈的異同?
053 | 精讀2017年NIPS最佳研究論文之三:如何解決非完美資訊博弈問題?
060 | WSDM 2018論文精讀:看谷歌團隊如何做位置偏差估計
061 | WSDM 2018論文精讀:看京東團隊如何挖掘商品的替代資訊和互補資訊
062 | WSDM 2018論文精讀:深度學習模型中如何使用上下文資訊?
101 | The Web 2018論文精讀:如何對商品的圖片美感進行建模?
102 | The Web 2018論文精讀:如何改進經典的推薦演算法BPR?
103 | The Web 2018論文精讀:如何從文字中提取高元關係?
125 | SIGIR 2018論文精讀:偏差和“流行度”之間的關係
126 | SIGIR 2018論文精讀:如何利用對抗學習來增強排序模型的普適性?
127 | SIGIR 2018論文精讀:如何對搜尋頁面上的點選行為進行序列建模?
128 | CVPR 2018論文精讀:如何研究計算機視覺任務之間的關係?
129 | CVPR 2018論文精讀:如何從整體上對人體進行三維建模?
130 | CVPR 2018論文精讀:如何解決排序學習計算複雜度高這個問題?
131 | ICML 2018論文精讀:模型經得起對抗樣本的攻擊?這或許只是個錯覺
132 | ICML 2018論文精讀:聊一聊機器學習演算法的“公平性”問題
133 | ICML 2018論文精讀:優化目標函式的時候,有可能放大了“不公平”?
134 | ACL 2018論文精讀:問答系統場景下,如何提出好問題?
135 | ACL 2018論文精讀:什麼是對話中的前提觸發?如何檢測?
136 | ACL 2018論文精讀:什麼是“端到端”的語義雜湊?
覆盤 7 | 一起來讀人工智慧國際頂級會議論文
熱點話題討論 (7講)
014 | 精讀AlphaGo Zero論文
內參特刊 | 和你聊聊每個人都關心的人工智慧熱點話題
059 | 2017人工智慧技術發展盤點
104 | 如何快速學習國際頂級學術會議的內容?
152 | 在人工智慧領域,如何快速找到學習的切入點?
153 | 人工智慧技術選擇,該從哪裡獲得靈感?
154 | 近在咫尺,走進人工智慧研究
結束語 (1講)
結束語 | 雄關漫道真如鐵,而今邁步從頭越
你將收穫:
- 系統學習人工智慧、機器學習核心技術,檢測自身知識框架,升級技術能力,提升自我價值;
- 瞭解人工智慧、機器學習頂級會議動態,培養閱讀頂級學術論文的獨特視角,擴充視野;
- 洞悉人工智慧發展前沿,抓住人工智慧熱點,運用AI思維方式,享受到技術發展的紅利。
適宜人群
- 希望擴充人工智慧視野、系統學習人工智慧核心技術的資料科學家、工程師;
- 勤勉且不斷精進的人工智慧從業者;
- 人工智慧團隊負責人;
- 有志於從事人工智慧事業的入門者;
- 對人工智慧/機器學習感興趣的各界人士。
訂閱價格:
為回報猿人學的粉絲,所有通過我分享的二維碼購買的使用者,請加我微訊號:dismissmewp,備註:返現。
享受完其它優惠後,我再給大家立即返¥12元現金。
我的公眾號:猿人學 Python 上會分享更多心得體會,敬請關注。
***版權申明:若沒有特殊說明,文章皆是猿人學 yuanrenxue.com 原創,沒有猿人學授權,請勿以任何形式轉載。***