Siamese RPN 訓練網路結構解析
最近在做目標追蹤領域相關論文閱讀,以下是對論文的閱讀與總結
上圖為SiameseRPN的訓練框架:左邊是用於提取特徵的孿生網路;中間是區域推薦網路,包含分類分支和迴歸分支。 這裡採用成對的相關操作來得到最後的輸出。關於輸出的各個通道的細節在右邊具體展示:在分類分支,輸出的特徵圖包含2k個通道,分別表示k個錨點的前景背景的分數;在迴歸分支,輸出的特徵圖包含4k個通道,分別表示k個錨點的座標偏移的預測。圖中*表示相關操作。
1.Siamese網路 在孿生網路中,本文采用了一個沒有填充的全卷積結構。用於提取影像特徵的孿生網路分成兩個分支。接收模板幀的小圖為模板分支,接收當前幀的影像為檢測分支。兩支網路只有輸入不同,權重引數完全相同。所以網路兩支可以隱式的編碼相同的變化,非常適合於跟蹤任務。
2.-- RPN 在Siamese FC中,網路只需要根據相關操作的結果得到響應圖,進行預測目標所在的位置。而為了引入區域推薦網路進行精準的位置的預測,網路必須做出比較大的改動。根據檢測中區域推薦網路的經驗,如果有個k錨點,那麼網路需要為分類分支輸出通道數為2k的特徵圖,為迴歸分支輸出通道數為4k的特徵圖。因此在進行相關操作操作之前,演算法需要提升通道數。圖中間部分從上到下的第1,3個卷積就是提升維度用的卷積。同時為了網路的深度對齊,第2,4個卷積也會被應用,不過通道數沒有變。之後便以上述相關操作的描述方式進行相關操作。
3.-- 訓練資料的構成 在訓練階段,Siamese結構所需要的樣本對是從ILSVRC和Youtube-BB中以一個隨機間隔選出來的。模板和檢測幀的影像來自於同一個視訊中的同一個物體的兩幀。採用一定間隔內的圖片對作為樣本,在幀間隔比較遠的時候學習目標的變換。但過遠的間隔可能使得目標變換過於大,網路可能學習這種變化會比較困難,甚至可能帶來負面的作用。所以在實驗過程中採用小於100幀的間隔的圖片對作為樣本,而不是從視訊中任意挑選兩幀作為圖片對。
分類輸出分支:
迴歸輸出分支:
迴歸損失:
總的損失:
相關文章
- 結構體綜合訓練結構體
- 語義分割丨PSPNet原始碼解析「網路訓練」原始碼
- 3.3 神經網路的訓練神經網路
- Siamese network總結
- 生成對抗網路綜述:從架構到訓練技巧架構
- 深度學習 | 訓練網路trick——mixup深度學習
- 深度學習訓練時網路不收斂的原因分析總結深度學習
- 面向統一的AI神經網路架構和預訓練方法AI神經網路架構
- 機器學習之訓練神經網路:最佳做法機器學習神經網路
- OpenPose訓練過程解析(2)
- 使用tf.estimator.Estimator訓練神經網路神經網路
- 深度神經網路為何很難訓練?神經網路
- 關於訓練神經網路的諸多技巧Tricks(完全總結版)神經網路
- 1.23訓練總結
- 迴圈神經網路之embedding,padding,模型構建與訓練神經網路padding模型
- 卷積神經網路學習筆記——Siamese networks(孿生神經網路)卷積神經網路筆記
- 深度神經網路的分散式訓練概述:常用方法和技巧全面總結神經網路分散式
- 1.2網際網路的網路結構
- 如何應對訓練的神經網路不工作?神經網路
- Batch Normalization: 如何更快地訓練深度神經網路BATORM神經網路
- 從零開始:教你如何訓練神經網路神經網路
- 訓練神經網路時如何確定batch size?神經網路BAT
- 用神經網路測量訓練集的半衰期神經網路
- 訓練自己的Android TensorFlow神經網路Android神經網路
- umich cv-5-1 神經網路訓練1神經網路
- umich cv-5-2 神經網路訓練2神經網路
- 前端技能訓練: 重構一前端
- 祕籍在手,訓練不愁!特斯拉AI負責人Karpathy的超全神經網路訓練套路AI神經網路
- 做題小結 DP訓練
- [原始碼解析] 模型並行分散式訓練Megatron (2) --- 整體架構原始碼模型並行分散式架構
- 網路拓撲結構
- 用神經網路訓練一個文字分類器神經網路文字分類
- CoLAKE: 如何實現非結構性語言和結構性知識表徵的同步訓練
- [原始碼解析] 深度學習分散式訓練框架 horovod (13) --- 彈性訓練之 Driver原始碼深度學習分散式框架
- 做題小結 dp訓練6
- 什麼是LLM大模型訓練,詳解Transformer結構模型大模型ORM
- 【python實現卷積神經網路】開始訓練Python卷積神經網路
- 訓練生成對抗網路的一些技巧和陷阱