理解optimizer.zero_grad(), loss.backward(), optimizer.step()的作用及原理

在用pytorch训练模型时,通常会在遍历epochs的过程中依次用到optimizer.zero_grad(),loss.backward()optimizer.step()三个函数,如下所示:

猜你喜欢

转载自blog.csdn.net/weixin_43135178/article/details/115041112