量化評估、演算法擴充:強化學習研究的10大原則

大資料文摘發表於2018-12-13

今年9月份舉辦的深度學習Indaba2018峰會的乾貨確實不少,昨天文摘菌給大家整理了27位大咖關於自然語言處理的精彩問答。今天文摘菌再給大家整理一份關於強化學習的10個原則,不僅在強化學習中有用,在機器學習研究中也能夠提供一些參考。

這10個原則是一位來自Insight資料分析研究中心的博士生Sebastian Ruder在參會期間對David Silver報告進行的整理,除了Ruder自己的解析外,也把他自己拍的照片分享了出來。

評估推動進步

量化評估、演算法擴充:強化學習研究的10大原則

量化的評估才能推動進步。評估獎勵的選擇決定了進步的方向,要確保評估指標與目標密切相關,避免主觀評價(例如人類學科)。還有一點,雙Q學習優於單Q學習,因為後者能減少偏見。

演算法的可擴充套件性決定成功

量化評估、演算法擴充:強化學習研究的10大原則

演算法如何擴充套件非常重要,要避免效能上限。深度學習非常棒,因為它可以有效地擴充套件,但是樣本效率同樣重要。

演算法的可擴充套件性的表現取決於資源,而演算法的可擴充套件性決定是否成功:那麼給予更多資源,效能如何提高?值得一提的是,這裡的資源指的是計算,記憶體或資料。

通用性,即演算法在其他任務上的表現非常重要

量化評估、演算法擴充:強化學習研究的10大原則

關鍵是要設計一系列具有挑戰性的任務,即應該對不同的新任務進行評估。避免過度使用當前的任務。

相信Agent的經驗

量化評估、演算法擴充:強化學習研究的10大原則

不要依賴人類的專業知識,不要依賴於工程特徵。在資料有限時,領域專業知識和歸納偏差非常重要。

一些任務可能看起來不太可能完成,但是,你確實能在其中學到很多經驗。這種任務或者專案,通常滿足這三點:

1.很難接受RL的核心問題。

1.是AI的核心問題

3.非常值得你去努力

狀態應該是主觀的

量化評估、演算法擴充:強化學習研究的10大原則

應將狀態建立為模型的狀態,即RNN的隱藏狀態,而不是根據環境定義。只有agent對世界的主觀看法才是重要的。不要推理外部現實,因為達到的效果非常有限。

控制流

量化評估、演算法擴充:強化學習研究的10大原則

Agent影響資料流和體驗。Agent應該有能夠訪問控制環境的功能。重點不僅在於最大化獎勵,還在於建立對流的控制。

價值函式塑造世界

量化評估、演算法擴充:強化學習研究的10大原則

價值函式有效地總結了當前和未來的狀況。多值函式允許我們模擬世界的多個方面。可以幫助控制流。

從想象的經驗(imagined experience)中學習

量化評估、演算法擴充:強化學習研究的10大原則

接下來該怎樣規劃?同樣的,RL演算法可以從想象的經驗(imagined experience)中學習,如Alphago中使用MCTS和值函式。

利用函式逼近器

量化評估、演算法擴充:強化學習研究的10大原則

可以將演算法複雜度揉進神經網路架構,甚至MCTS,分層控制等也可以用NN建模。然後要真正理解:我們從模型學到了什麼。

學會學習

量化評估、演算法擴充:強化學習研究的10大原則

必須精通元學習,然後,你可能不再需要手工設定網路架構,一切都是端到端學習。總而言之,神經網路要通過儘可能少的人工干預來處理事情。但是,歸納偏差應該仍然有用。

相關報導:https://twitter.com/seb_ruder/status/1040235236284669952?utm_campaign=NLP%20News&utm_medium=email&utm_source=Revue%20newsletter

相關文章