有没有办法保存和恢复autograd的当前状态?saved_state = torch.autograd.get_grad_enabled() # How do I do this?torch.autograd.set_grad_enabled(temporary_state)torch.autograd.set_grad_enabled
每当我调用autograds backward时,我的脚本永远不会终止。backward本身并不是阻塞的,它之后的所有行仍然被执行,脚本只是不会终止。似乎在后台有某种工作线程挂起了,但我找不到任何关于它的信息。 我最初在训练神经网络时遇到了这个问题,但我最终发现了一个具有相同行为的非常简短的示例: import torch
y = x * 2y.backward(g
self.bidirectional, self.batch_first)
(print_stack at /opt/conda/conda-bld/pytorch_1587428190859/work/torch/csrc/autograddata/miniconda3/envs/lbf/lib/python3.7/site-packages/torch/tensor.py", line 198, in