从v1.9开始,PyTorch有了新的功能torch.inference_mode,即"analogous to torch.no_grad……在这种模式下运行的代码可以通过禁用视图跟踪和版本计数来获得更好的性能“ 如果我只是在测试时评估我的模型(即不是训练),是否有任何情况下torch.no_grad比torch.inference_mode更可取?我计划将前者的每个实例替换为后者,并且我希望使用运行时错误作为屏障(即,我相信任何问题都会暴露为运行时错误,如果它不是运行时错误,那么我认为使用torch.inference_mod