首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何在Tensorflow中加载一个非常大的组件并创建小型批处理?

如何在Tensorflow中加载一个非常大的组件并创建小型批处理?
EN

Stack Overflow用户
提问于 2017-01-31 01:32:04
回答 1查看 215关注 0票数 0

我有一个被python代码写入磁盘的hdf5文件(我只有文件,没有代码)。该文件的大小为90 in,该文件中的数据具有以下格式:(N,250,360,3)。顺便说一句,这些数据不能放入内存中。

现在,我想用Tensorflow编写一个数据加载器,每次只从这个文件加载M个样本(M远小于N)。

做这件事最好的方法是什么?任何指向代码的指针都将受到高度赞赏。

谢谢。J

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2017-02-02 19:49:32

Tensorflow MNIST教程展示了如何做到这一点:https://www.tensorflow.org/tutorials/mnist/beginners/

如果您查看Github上的实现,您将看到它使用next_batch函数一次读取批次的输入100。

next_batch在这里的实现:https://github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/learn/python/learn/datasets/mnist.py#L160

您需要为您的数据集实现类似的东西。我对HDF5并不特别熟悉,但是您可以使用任何Python库来进行加载;它不必是特定于Tensorflow的。

希望这能帮上忙!

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/41948367

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档