pytorch中的 requires_grad和volatile

时间:2021-11-13 08:24:55

https://blog.****.net/u012436149/article/details/66971822

简单总结其用途

(1)requires_grad=Fasle时不需要更新梯度, 适用于冻结某些层的梯度;

(2)volatile=True相当于requires_grad=False,适用于推断阶段,不需要反向传播。这个现在已经取消了,使用with torch.no_grad()来替代