今年9月份舉辦的深度學習Indaba2018峰會的乾貨確實不少,昨天文摘菌給大家整理了27位大咖關於自然語言處理的精彩問答。今天文摘菌再給大家整理一份關於強化學習的10個原則,不僅在強化學習中有用,在機器學習研究中也能夠提供一些參考。
這10個原則是一位來自Insight資料分析研究中心的博士生Sebastian Ruder在參會期間對David Silver報告進行的整理,除了Ruder自己的解析外,也把他自己拍的照片分享了出來。
評估推動進步
量化的評估才能推動進步。評估獎勵的選擇決定了進步的方向,要確保評估指標與目標密切相關,避免主觀評價(例如人類學科)。還有一點,雙Q學習優於單Q學習,因為後者能減少偏見。
演算法的可擴充套件性決定成功
演算法如何擴充套件非常重要,要避免效能上限。深度學習非常棒,因為它可以有效地擴充套件,但是樣本效率同樣重要。
演算法的可擴充套件性的表現取決於資源,而演算法的可擴充套件性決定是否成功:那麼給予更多資源,效能如何提高?值得一提的是,這裡的資源指的是計算,記憶體或資料。
通用性,即演算法在其他任務上的表現非常重要
關鍵是要設計一系列具有挑戰性的任務,即應該對不同的新任務進行評估。避免過度使用當前的任務。
相信Agent的經驗
不要依賴人類的專業知識,不要依賴於工程特徵。在資料有限時,領域專業知識和歸納偏差非常重要。
一些任務可能看起來不太可能完成,但是,你確實能在其中學到很多經驗。這種任務或者專案,通常滿足這三點:
1.很難接受RL的核心問題。
1.是AI的核心問題
3.非常值得你去努力
狀態應該是主觀的
應將狀態建立為模型的狀態,即RNN的隱藏狀態,而不是根據環境定義。只有agent對世界的主觀看法才是重要的。不要推理外部現實,因為達到的效果非常有限。
控制流
Agent影響資料流和體驗。Agent應該有能夠訪問控制環境的功能。重點不僅在於最大化獎勵,還在於建立對流的控制。
價值函式塑造世界
價值函式有效地總結了當前和未來的狀況。多值函式允許我們模擬世界的多個方面。可以幫助控制流。
從想象的經驗(imagined experience)中學習
接下來該怎樣規劃?同樣的,RL演算法可以從想象的經驗(imagined experience)中學習,如Alphago中使用MCTS和值函式。
利用函式逼近器
可以將演算法複雜度揉進神經網路架構,甚至MCTS,分層控制等也可以用NN建模。然後要真正理解:我們從模型學到了什麼。
學會學習
必須精通元學習,然後,你可能不再需要手工設定網路架構,一切都是端到端學習。總而言之,神經網路要透過儘可能少的人工干預來處理事情。但是,歸納偏差應該仍然有用。