首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >从1.x迁移到Tensorflow 2.x会导致在Google平台上进行更慢的培训和ResourceExhaustedErrors

从1.x迁移到Tensorflow 2.x会导致在Google平台上进行更慢的培训和ResourceExhaustedErrors
EN

Stack Overflow用户
提问于 2021-08-20 07:57:59
回答 1查看 58关注 0票数 1

在Tensorflow 1.14上一切都很好。由于各种原因,我现在不得不对其进行更新,而且似乎培训(就像Google平台上的工作一样)已经严重退化:我现在为我的模型获得了ResourceExhaustedError,甚至当我将批处理的大小减少了一大串时(我还是不想这么做),培训速度就降低了大约5倍。

我的迁移可以概括为我的配置yaml已经从:

代码语言:javascript
复制
trainingInput:
  scaleTier: CUSTOM
  masterType: standard_gpu
  runtimeVersion: "1.14"

代码语言:javascript
复制
trainingInput:
  scaleTier: CUSTOM
  masterType: standard_gpu
  runtimeVersion: "2.5"
  pythonVersion: "3.7"

并更新了所有相关代码,使之符合TF2.x标准。我还试着摆弄scaleTiermasterType,但没有结果。

我的模型基于Keras,涉及LSTM,有大约200万和550万个参数.

我在这里能做什么?为什么当我做出这种改变时,在google平台上的培训质量会有如此高的程度?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2021-08-23 03:19:48

问题似乎是我在我的LSTM模型中使用了recurrent_dropout,这个模型似乎不再支持Tensorflow 2.x中的GPU培训。在从我的LSTM层删除了这个论点之后,这个问题就消失了。

值得注意的是,无论是迁移指令还是v2脚本都没有帮助做到这一点。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/68858801

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档