首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Tensorflow -使用block_lengths从多个tfrecords记录读取不同的parallel_interleave?

Tensorflow -使用block_lengths从多个tfrecords记录读取不同的parallel_interleave?
EN

Stack Overflow用户
提问于 2018-06-15 18:40:19
回答 1查看 287关注 0票数 0

我正试着阅读三种不同长度的大to记录,它们都是并行的,如下所示:

代码语言:javascript
复制
files = [ filename1, filename2, filename3 ]

data = tf.data.TFRecordDataset(files)

data = data.apply(
    tf.contrib.data.parallel_interleave(
        lambda filename: tf.data.TFRecordDataset(data),
        cycle_length=3,block_length = [10,5,3]))

data = data.shuffle(
    buffer_size = 100)

data = data.apply(
    tf.contrib.data.map_and_batch(
        map_func=parse, 
        batch_size=100))

data = data.prefetch(10)

,但是TensorFlow不允许每个文件源有不同的块长度:

代码语言:javascript
复制
InvalidArgumentError: block_length must be a scalar

我可以用不同的小批处理大小创建三个不同的数据集,但这需要3倍的资源,而这不是我的机器限制所提供的选项。

可能的解决办法是什么?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-06-18 18:37:35

这是答案,我想出了如何在我的约束范围内做到这一点。

为每个文件创建数据集,为每个文件定义每个小批大小,并将get_next()输出连接在一起。这适合我的机器,并有效地运行。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/50881103

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档