首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >从运行在CPU上的TPU保存的pytorch模型

从运行在CPU上的TPU保存的pytorch模型
EN

Stack Overflow用户
提问于 2020-08-15 04:47:48
回答 1查看 156关注 0票数 1

我发现了有趣的模型-问题生成器,但不能运行它。我得到一个错误:

代码语言:javascript
复制
Traceback (most recent call last):
  File "qg.py", line 5, in <module>
    model = AutoModelWithLMHead.from_pretrained("/home/user/ml-experiments/gamesgen/t5-base-finetuned-question-generation-ap/")
  File "/home/user/.virtualenvs/hugging/lib/python3.7/site-packages/transformers/modeling_auto.py", line 806, in from_pretrained
    return model_class.from_pretrained(pretrained_model_name_or_path, *model_args, config=config, **kwargs)
  File "/home/user/.virtualenvs/hugging/lib/python3.7/site-packages/transformers/modeling_utils.py", line 798, in from_pretrained
    import torch_xla.core.xla_model as xm
ModuleNotFoundError: No module named 'torch_xla'

我用谷歌搜索了一下,发现"torch_xla“是用来训练TPU上的pytorch模型的东西。但我想在cpu上本地运行它(当然是为了推断),当pytorch试图加载tpu绑定张量时得到这个错误。我怎么才能修复它?

这是我尝试过的模型:https://huggingface.co/mrm8488/t5-base-finetuned-question-generation-ap

EN

回答 1

Stack Overflow用户

发布于 2020-08-15 23:41:15

按照@cronoik的建议,我已经从github安装了transformers库。我克隆了最新的版本,并在它的目录中执行了python3 setup.py install。此错误已修复,但在python的数据包存储库中仍未发布修复。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/63419835

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档