pytorch---之固定某些層權重再訓練

zxyhhjs2017發表於2019-03-09

1.children()這個方法,就是將網路中的模組化,可以自己動手試試看

2.然後prameters就是每一個模組裡面的引數,或者是所有網路的引數都可以,相當於對一個模組或者所有網路裡的引數requires_grad都設定為false,相當於這些模組裡的引數都不再反傳梯度了

3.再在優化器這裡加一點東西,如下所示:

optimizer = torch.optim.RMSprop(filter(lambda p: p.requires_grad, model.parameters()), lr=0.1)

參考:https://spandan-madan.github.io/A-Collection-of-important-tasks-in-pytorch/

相關文章