首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Tensorflow训练,如何防止训练节点删除

Tensorflow训练,如何防止训练节点删除
EN

Stack Overflow用户
提问于 2018-11-07 18:20:10
回答 2查看 73关注 0票数 0

我使用Tensorflow和python进行对象检测。

我想开始训练,离开它一段时间,并保留所有的训练节点(型号-cpk)。标准的Tensorflow训练似乎删除了节点,只保留了最后几个节点。我怎么才能防止这种情况?

如果这里问错了这些问题,请原谅。如果有人告诉我一个合适的地方,我会很乐意的。谢谢。

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2018-11-08 09:07:13

您可以在keep_checkpoint_max中使用tf.estimator.RunConfig标志。您可以将其设置为一个非常大的数字,以实际保存所有检查点。但是,应该警告您,根据型号大小和节省频率,它可能会填满您的磁盘(因此在培训期间崩溃)。您可以通过标志save_checkpoints_stepssave_checkpoints_secs of RunConfig更改保存频率。默认情况下使用save_checkpoints_secs,默认值为600 (10分钟)。

票数 1
EN

Stack Overflow用户

发布于 2018-11-08 09:54:59

当希望对测试数据进行预测时,您可以在再次加载.hdf5文件时保存模型检查点。希望这能有所帮助。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/53195482

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档