我一直试图建立一个LSTM模型,但我对batch_size有点困惑。我在使用Tensorflow中的Keras模块。
我有50,000个示例,每个示例有200个时间步骤,每个时间步骤有三个特性。所以我把我的训练数据塑造成(50000, 200, 3)。
我用四层建立了我的模型,每个层都有100单元。对于第一层,我将输入形状指定为(200, 3)。前三层有return_sequences=True,最后一层没有,然后我做了一些softmax分类。
当我用model.fit调用batch_size='some_number'时,Tensorflow/Keras会用指定大小的批处理来输入模型吗?我是否必须预先重塑我的数据?如果样本数不能被'some_number'均匀整除,会发生什么?
谢谢你的帮忙!
发布于 2018-12-05 10:31:06
如果您将数据作为numpy数组提供给model.fit(),那么是的,Keras将负责按照您指定的批处理大小向模型提供数据。如果您的数据集大小不能被批处理大小所整除,那么Keras的最终批处理将更小,并且等于dataset_size mod batch_size。
https://stackoverflow.com/questions/53630041
复制相似问题