美陸軍新深度神經網路框架為AI增強記憶力
美國陸軍的一個專案為深度神經網路開發了一個新的框架,該框架允許人工智慧系統更好地學習新任務,同時更少地忘記他們在以前任務中學到的東西。
由美國陸軍資助的北卡羅來納州立大學(North Carolina State University)的研究人員也證明,使用該框架學習新任務可以讓人工智慧更好地執行之前的任務,這一現象被稱為向後轉移。
“軍隊需要準備戰鬥在世界任何地方,所以其智慧系統還需要做好準備,”瑪麗∙安博士說領域,智慧系統的專案經理在陸軍研究辦公室,美國陸軍作戰能力發展的一個元素命令陸軍研究實驗室”。我們希望軍隊的智慧系統不斷獲得新技能進行任務時世界各地的戰場沒有忘記技能已經訓練。例如,在進行城市操作時,輪式機器人可能會為密集的城市學習新的導航引數,但它仍然需要在之前遇到的環境(如森林)中高效地執行。”
研究小組提出了一個新的框架,稱為“學習成長”,用於持續學習,它將網路結構學習和模型引數學習解耦。在實驗測試中,它優於以前的持續學習方法。
“深度神經網路人工智慧系統是為學習窄任務而設計的,”該論文的聯合首席作者、北卡羅來納大學(NC State)博士生李錫來(Xilai Li)說。“因此,學習新任務時可能會發生以下幾種情況之一,系統在學習新任務時可能會忘記舊任務,這被稱為災難性遺忘。系統可能會忘記一些他們知道的關於舊任務的事情,而不學習做新任務。或者系統可以在新增新任務的同時修復舊任務——這限制了改進,並很快導致AI系統太大而無法有效執行。持續學習,也被稱為 終生學習 或學習到學習,正試圖解決這個問題。”
要理解“學會成長”框架,可以將深度神經網路看作是一個充滿多層的管道。原始資料進入管道的頂部,任務輸出從底部出來。管道中的每一個“層”都是一個運算元據的計算,以幫助網路完成其任務,例如識別數字影像中的物件。在管道中有多種安排層的方法,它們對應於網路的不同“體系結構”。
當要求深度神經網路學習一項新任務時,學習增長框架首先透過搜尋進行一種稱為 顯式 神經結構最佳化的操作。這意味著當網路到達其系統中的每一層時,它可以決定做以下四件事之一:跳過這一層;使用該層的方式與之前的任務使用它的方式相同;在該層上附加一個輕量級介面卡,該介面卡對其進行輕微修改;或者建立一個全新的層。
這種體系結構最佳化有效地安排了完成新任務所需的最佳拓撲或一系列層。一旦完成,網路使用新的拓撲來訓練自己如何完成任務——就像任何其他深度學習人工智慧系統一樣。
“我們使用幾個資料集進行了實驗,我們發現,新任務與之前的任務越相似,現有的執行新任務的層就越重疊,”李說。“更有趣的是,透過最佳化或“學習”拓撲結構,一個接受過執行新任務訓練的網路幾乎不會忘記執行舊任務所需要的東西,即使舊任務並不相似。”
研究人員還進行了實驗,將學習成長框架學習新任務的能力與其他幾種持續學習方法進行了比較,發現學習成長框架在完成新任務時具有更好的準確性。
為了測試每個網路在學習新任務時可能忘記了多少,研究人員接著測試了每個系統執行舊任務的準確性——學習成長框架再次優於其他網路。
“在某些情況下,學習成長框架實際上在執行舊任務方面做得更好,”Salesforce research的研究主管、該研究的合著者熊凱明(caim Xiong)說。這就是所謂的向後轉移,當你發現學習一項新任務能讓你更好地完成一項舊任務時,這種轉移就會發生。我們一直在人們身上看到這一點;而人工智慧則不然。”
菲爾茲說:“這項陸軍投資擴充套件了目前最先進的機器學習技術,將指導我們陸軍研究實驗室的研究人員開發機器人應用,如智慧操縱和學習識別新物件。”“這項研究讓人工智慧離為我們的作戰人員提供有效的無人系統又近了一步,這些系統可以部署在戰場上。”
這篇題為“學會成長:克服災難性遺忘的持續結構學習框架”的論文將於6月9日至15日在加州長灘舉行的第36屆機器學習國際會議上發表。本文的聯合作者包括:北卡羅來納大學電子與計算機工程副教授吳天福博士、北卡羅來納大學博士生李錫來和Salesforce Research的周英波。本文由Salesforce Research的Richard Socher和熊caim合著。
這項工作也得到了國家科學基金會的支援。部分工作是在李在Salesforce AI Research做暑期實習生時完成的。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2645374/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- AI之(神經網路+深度學習)AI神經網路深度學習
- 神經網路:numpy實現神經網路框架神經網路框架
- 【人工神經網路基礎】為什麼神經網路選擇了“深度”?神經網路
- 深度神經網路為何很難訓練?神經網路
- 《神經網路和深度學習》系列文章三十八:深度神經網路為何很難訓練?神經網路深度學習
- 白話深度神經網路神經網路
- 深度學習筆記------卷積神經網路深度學習筆記卷積神經網路
- 深度學習卷積神經網路筆記深度學習卷積神經網路筆記
- 3.4 神經網路為什麼這麼強神經網路
- Keras深度神經框架Keras框架
- 【深度學習篇】--神經網路中的卷積神經網路深度學習神經網路卷積
- 如何優化深度神經網路?優化神經網路
- 深度剖析卷積神經網路卷積神經網路
- 神經網路和深度學習神經網路深度學習
- 吳恩達《神經網路與深度學習》課程筆記(4)– 淺層神經網路吳恩達神經網路深度學習筆記
- 吳恩達《神經網路與深度學習》課程筆記(5)– 深層神經網路吳恩達神經網路深度學習筆記
- 使用深度神經網路為什麼8位足夠?神經網路
- 深度三維殘差神經網路:視訊理解新突破神經網路
- 深度學習與神經網路學習筆記一深度學習神經網路筆記
- 【深度學習】神經網路入門深度學習神經網路
- 再聊神經網路與深度學習神經網路深度學習
- 深度學習與圖神經網路深度學習神經網路
- 深度學習筆記8:利用Tensorflow搭建神經網路深度學習筆記神經網路
- 【deeplearning.ai-神經網路和深度學習】第一週答案AI神經網路深度學習
- 深度神經網路的壓縮與加速神經網路
- 30分鐘講清楚深度神經網路神經網路
- 【深度學習】1.4深層神經網路深度學習神經網路
- 深度學習教程 | 深層神經網路深度學習神經網路
- 深度學習三:卷積神經網路深度學習卷積神經網路
- 深度神經網路(DNN)的正則化神經網路DNN
- 神經網路和深度學習(1):前言神經網路深度學習
- 深度學習系列(2)——神經網路與深度學習深度學習神經網路
- 深度神經網路中深度究竟帶來了什麼?神經網路
- 吳恩達深度學習筆記(deeplearning.ai)之卷積神經網路(CNN)(上)吳恩達深度學習筆記AI卷積神經網路CNN
- 用自注意力增強卷積:這是新老兩代神經網路的對話(附實現)卷積神經網路
- 神經網路和機器學習、強人工智慧神經網路機器學習人工智慧
- 深度學習技術實踐與圖神經網路新技術深度學習神經網路
- 為什麼說BP神經網路就是人工神經網路的一種?神經網路