对于atuograd那里有一点疑问,如果想要计算梯度,需要把tensor的requires_grad设为True,否则,.backward()是会报错的,可是在实际案例时,比如神经网络里,我看并没有对输入参数对这个属性进行设置,可是在迭代时,照样可以反向传播,这是为什么?