嗨,我正在尝试用 pytorch 理解 NN。我对梯度计算有疑问..
将 torch.optim 导入为 optim
create your optimizer
optimizer = optim.SGD(net.parameters(), lr=0.01)
# in your training loop:
optimizer.zero_grad() # zero the gradient buffers
output = net(input)
loss = criterion(output, target)
loss.backward()
optimizer.step() # Does the update
从 about 代码中,我了解到 loss.backward() 计算梯度。我不确定这些信息如何共享optimizer以更新渐变。
谁能解释一下这个。。
提前致谢 !