pytorch报错解决2——Only Tensors of floating point and complex dtype can require gradients

在自己coding一些比较基础的pytorch梯度代码时候发生了如下的报错:

Traceback (most recent call last):
  File "*****************************/导数.py", line 2, in <module>
    x = torch.arange(4, requires_grad=True)  # [1, 2, 3, 4], 需要计算梯度,这样x.grad就存储了梯度
RuntimeError: Only Tensors of floating point and complex dtype can require gradients

这是原代码:

import  torch
x = torch.arange(4, requires_grad=True)  # [1, 2, 3, 4], 需要计算梯度,这样x.grad就存储了梯度
y = 2*torch.dot(x, x) # 求x的点积的两倍
y.backward()
print(x.grad)

其实这个报错很好理解,就是只有float型或者complex型可以进行梯度计算。而问题也就出在我arange后面中用的是“4”,改成“4.0”变成小数即可。

改进后的代码:

import  torch
x = torch.arange(4.0, requires_grad=True)  # [1, 2, 3, 4], 需要计算梯度,这样x.grad就存储了梯度
y = 2*torch.dot(x, x) # 求x的点积的两倍
y.backward()
print(x.grad)

输出结果:

tensor([ 0.,  4.,  8., 12.])

猜你喜欢

转载自blog.csdn.net/m0_61787307/article/details/129431662