pytorch之---relu,prelu,leakyrelu
torch.nn.ReLU(inplace=False):output = max(0, x)
torch.nn.PReLU(num_parameters=1, init=0.25):$PReLU(x) = max(0,x) + a * min(0,x)
a是一個可學習引數。當沒有宣告時,nn.PReLU()在所有的輸入中只有一個引數a;如果是nn.PReLU(nChannels),a將應用到每個輸入。
注意:當為了表現更佳的模型而學習引數a時不要使用權重衰減(weight decay)
引數:
num_parameters:需要學習的a的個數,預設等於1
init:a的初始值,預設等於0.25
torch.nn.LeakyReLU(negative_slope=0.01, inplace=False)
對輸入的每一個元素運用$f(x) = max(0, x) + {negative_slope} * min(0, x)$
引數:
negative_slope:控制負斜率的角度,預設等於0.01
inplace-選擇是否進行覆蓋運算
torch.nn.ReLU6(inplace=False): output = min(max(0,x), 6)
關於relu6,請參考:https://www.cnblogs.com/bmsl/p/9005431.html
torch.nn.RReLU(lower=0.125, upper=0.3333333333333333, inplace=False)
RReLU(x)=\left\{\begin{matrix} x (if x>0)& & \\ ax (other) & & \end{matrix}\right.
where aa is randomly sampled from uniform distribution U(lower,upper)U(lower,upper).
See: https://arxiv.org/pdf/1505.00853.pdf
---------------------
作者:儒雅的小Z
來源:CSDN
原文:https://blog.csdn.net/guilutian0541/article/details/81119932
版權宣告:本文為博主原創文章,轉載請附上博文連結!
相關文章
- pytorch之TensorPyTorch
- Ascend C 自定義PRelu運算元
- pytorch---之halfTensorPyTorch
- 深度學習---之caffe如何加入Leaky_relu層深度學習
- 《PyTorch》Part5 PyTorch之遷移學習PyTorch遷移學習
- pytorch之hub模組PyTorch
- Pytorch框架之tensor.gradPyTorch框架
- Pytorch學習筆記之tensorboardPyTorch筆記ORB
- Pytorch系列之常用基礎操作PyTorch
- Make Your First GAN With PyTorch 之 第一個 PyTorch 神經網路PyTorch神經網路
- Pytorch之Embedding與Linear的愛恨糾葛PyTorch
- pytorch---之隨機種子初始化PyTorch隨機
- [原始碼解析] PyTorch 分散式(7) ----- DistributedDataParallel 之程式組原始碼PyTorch分散式Parallel
- 【小白學PyTorch】8 實戰之MNIST小試牛刀PyTorch
- Pytorch框架之tensor型別轉換(type, type_as)PyTorch框架型別
- pytorch---之固定某些層權重再訓練PyTorch
- pytorchPyTorch
- 深度學習之PyTorch實戰(4)——遷移學習深度學習PyTorch遷移學習
- [原始碼解析] PyTorch 分散式(8) -------- DistributedDataParallel之論文篇原始碼PyTorch分散式Parallel
- 學習Pytorch+Python之MNIST手寫字型識別PyTorchPython
- [原始碼解析] PyTorch 分散式(13) ----- DistributedDataParallel 之 反向傳播原始碼PyTorch分散式Parallel反向傳播
- PyTorch資料和NumPy資料之間的互操作PyTorch
- 配置pytorchPyTorch
- Pytorch QuickStartPyTorchUI
- Pytorch - DataloaderPyTorch
- [原始碼解析] PyTorch 分散式(12) ----- DistributedDataParallel 之 前向傳播原始碼PyTorch分散式Parallel
- pytorch和tensorflow的愛恨情仇之基本資料型別PyTorch資料型別
- [原始碼解析] PyTorch 分散式之彈性訓練(3)---代理原始碼PyTorch分散式
- pytorch和tensorflow的愛恨情仇之引數初始化PyTorch
- [原始碼解析] PyTorch 分散式(2) --- 資料載入之DataLoader原始碼PyTorch分散式
- Pytorch | Pytorch格式 .pt .pth .bin .onnx 詳解PyTorch
- 【Pytorch教程】迅速入門Pytorch深度學習框架PyTorch深度學習框架
- (pytorch-深度學習系列)pytorch資料操作PyTorch深度學習
- [原始碼解析] PyTorch 分散式之彈性訓練(5)---Rendezvous 引擎原始碼PyTorch分散式
- [原始碼解析] PyTorch 分散式(10)------DistributedDataParallel 之 Reducer靜態架構原始碼PyTorch分散式Parallel架構
- TensorFlow與PyTorch之爭,哪個框架最適合深度學習PyTorch框架深度學習
- PyTorch之對類別張量進行one-hot編碼PyTorch
- 如何入門Pytorch之四:搭建神經網路訓練MNISTPyTorch神經網路