Pytorch 实现冻结指定卷积层的参数

时间:2022-09-12 18:49:53

python代码

?
1
2
3
4
5
6
7
8
9
10
11
12
for i, para in enumerate(self._net.module.features.parameters()):
  if i < 16:
    para.requires_grad = False
  else:
    para.requires_grad = True
# Solver.
# self._solver = torch.optim.SGD(
#   self._net.parameters(), lr=self._options['base_lr'],
#   momentum=0.9, weight_decay=self._options['weight_decay'])
self._solver = torch.optim.SGD(
  self._net.module.parameters(), lr=self._options['base_lr'],
  momentum=0.9, weight_decay=self._options['weight_decay'])

分析

通过for循环将需要冻结的layer的requires_grad属性设置为False

以上这篇Pytorch 实现冻结指定卷积层的参数就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持服务器之家。

原文链接:https://blog.csdn.net/u011622208/article/details/86078055