首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >TensorFlow推理(服务),CPU够用吗?

TensorFlow推理(服务),CPU够用吗?
EN

Stack Overflow用户
提问于 2016-11-15 14:44:48
回答 1查看 1.1K关注 0票数 1

通常,在我训练完模型后,我会使用相同的GPU来完成。

但是,如果我想在线作为服务提供GPU实例,我们还需要GPU实例进行推断吗?或者一个CPU实例就足够了吗?

谢谢。

EN

回答 1

Stack Overflow用户

发布于 2016-11-15 15:18:59

导出模型时,该设备将被清除。下面是此功能的单元测试:https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/saved_model/saved_model_test.py#L564

从评论中复制: GPU在处理大批量时速度很快。当对单个输入进行推理时,CPU的速度足够快。

票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/40603645

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档