(7)caffe總結之Blob,Layer and Net以及對應配置檔案的編寫

時光碎了天發表於2020-04-04

深度網路(net)是一個組合模型,它由許多相互連線的層(layers)組合而成。Caffe就是組建深度網路的這樣一種工具,它按照一定的策略,一層一層的搭建出自己的模型。它將所有的資訊資料定義為blobs,從而進行便利的操作和通訊。Blob是caffe框架中一種標準的陣列,一種統一的記憶體介面,它詳細描述了資訊是如何儲存的,以及如何在層之間通訊的。

1、blob

Blobs封裝了執行時的資料資訊,提供了CPU和GPU的同步。從數學上來說, Blob就是一個N維陣列。它是caffe中的資料操作基本單位,就像matlab中以矩陣為基本操作物件一樣。只是矩陣是二維的,而Blob是N維的。N可以是2,3,4等等。對於圖片資料來說,Blob可以表示為(N*C*H*W)這樣一個4D陣列。其中N表示圖片的數量,C表示圖片的通道數,H和W分別表示圖片的高度和寬度。當然,除了圖片資料,Blob也可以用於非圖片資料。比如傳統的多層感知機,就是比較簡單的全連線網路,用2D的Blob,呼叫innerProduct層來計算就可以了。

在模型中設定的引數,也是用Blob來表示和運算。它的維度會根據引數的型別不同而不同。比如:在一個卷積層中,輸入一張3通道圖片,有96個卷積核,每個核大小為11*11,因此這個Blob是96*3*11*11. 而在一個全連線層中,假設輸入1024通道圖片,輸出1000個資料,則Blob為1000*1024

2、layer

層是網路模型的組成要素和計算的基本單位。層的型別比較多,如Data,Convolution,Pooling,ReLU,Softmax-loss,Accuracy等,一個層的定義大至如下圖:

從bottom進行資料的輸入 ,計算後,通過top進行輸出。圖中的黃色多邊形表示輸入輸出的資料,藍色矩形表示層。

每一種型別的層都定義了三種關鍵的計算:setup,forward and backword

setup: 層的建立和初始化,以及在整個模型中的連線初始化。

forward: 從bottom得到輸入資料,進行計算,並將計算結果送到top,進行輸出。

backward: 從層的輸出端top得到資料的梯度,計算當前層的梯度,並將計算結果送到bottom,向前傳遞。

3、Net

就像搭積木一樣,一個net由多個layer組合而成。

現給出 一個簡單的2層神經網路的模型定義( 加上loss 層就變成三層了),先給出這個網路的拓撲。
第一層:name為mnist, type為Data,沒有輸入(bottom),只有兩個輸出(top),一個為data,一個為label
第二層:name為ip,type為InnerProduct, 輸入資料data, 輸出資料ip
第三層:name為loss, type為SoftmaxWithLoss,有兩個輸入,一個為ip,一個為label,有一個輸出loss,沒有畫出來。
對應的配置檔案prototxt就可以這樣寫:

name: "LogReg"
layer {
  name: "mnist"
  type: "Data"
  top: "data"
  top: "label"
  data_param {
    source: "input_leveldb"
    batch_size: 64
  }
}
layer {
  name: "ip"
  type: "InnerProduct"
  bottom: "data"
  top: "ip"
  inner_product_param {
    num_output: 2
  }
}
layer {
  name: "loss"
  type: "SoftmaxWithLoss"
  bottom: "ip"
  bottom: "label"
  top: "loss"
}

第一行將這個模型取名為LogReg, 然後是三個layer的定義,引數都比較簡單,只列出必須的引數。具體的引數定義可參見本系列的前幾篇文章。


相關文章