发布于2023-05-30 00:54 阅读(148) 评论(0) 点赞(11) 收藏(5)
我不能在编译函数中对非叶张量进行反向渐变。张量仍然没有梯度,即使retain_grad
被称为
重现问题的示例代码:
import torch
@torch.compile
def f(v):
v2 = v+1
v2.retain_grad()
v2.sum().backward()
return v2.grad
v=torch.rand(4, requires_grad = True)
out=f(v)
print(out)
没有@torch.compile
装饰器,输出是tensor([1., 1., 1., 1.])
期望的,但是使用@torch.compile
装饰器,输出是None
伴随着警告:
UserWarning: The .grad attribute of a Tensor that is not a leaf Tensor is being accessed. Its .grad attribute won't be populated during autograd.backward(). If you indeed want the .grad field to be populated for a non-leaf Tensor, use .retain_grad() on the non-leaf Tensor. If you access the non-leaf Tensor by mistake, make sure you access the leaf Tensor instead. See github.com/pytorch/pytorch/pull/30531 for more informations. (Triggered internally at aten/src/ATen/core/TensorBody.h:486.)
example_value = grapharg.example.grad
它与火炬发电机中的图形中断有关吗?我错过了什么吗?在 google colab 上使用 pytorch 2.0.0+cu118。
作者:黑洞官方问答小能手
链接:https://www.pythonheidong.com/blog/article/1983590/3895da42ff6e443043cc/
来源:python黑洞网
任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任
昵称:
评论内容:(最多支持255个字符)
---无人问津也好,技不如人也罢,你都要试着安静下来,去做自己该做的事,而不是让内心的烦躁、焦虑,坏掉你本来就不多的热情和定力
Copyright © 2018-2021 python黑洞网 All Rights Reserved 版权所有,并保留所有权利。 京ICP备18063182号-1
投诉与举报,广告合作请联系vgs_info@163.com或QQ3083709327
免责声明:网站文章均由用户上传,仅供读者学习交流使用,禁止用做商业用途。若文章涉及色情,反动,侵权等违法信息,请向我们举报,一经核实我们会立即删除!