我正在尝试将可变大小的序列输入到LSTM中。因此,我使用的是一个生成器和一个1的批量大小。
我有一个嵌入的(sequence_length,)输入张量,并输出一个(batch_size, sequence_length, embeding_dimension)-tensor.
同时,我拥有的其他输入数据的大小为(sequence_length, features),即(None, 10),我想将其重塑为(batch_size, sequence_length, features),即(None, None, 10)。
我尝试使用target_shape (-1, 10)的Keras整形层,这相当于将(None, 10)展开到(None, None, 10),但我收到的是一个(None, 1, 10)张量,这使得无法连接这个和嵌入的数据,以便将其提供给LSTM。
我的代码:
cluster = Input(shape=(None,))
embeded = Embedding(115, 25, input_length = None)(cluster)
features = Input(shape=(10,)) #variable
reshape = Reshape(target_shape=(-1, 10))(features)
merged = Concatenate(axis=-1)([embeded, reshape])
[...]
model.fit_generator(generator(), steps_per_epoch=1, epochs=5)输出:
[...]
ValueError: A `Concatenate` layer requires inputs with matching shapes except for the concat axis. Got inputs shapes: [(None, None, 25), (None, 1, 10)]如何将(None, 10)重塑为Keras中的(None, None, 10)张量?
发布于 2019-04-27 20:24:52
在NumPy中这样做对重塑没有任何好处。您可以:
# perform reshaping prior to passing to Keras
features = Input(shape=(None, 10))并在传递给Keras之前执行整形,在那里输入中有实际的batch_size和sequence_length。
https://stackoverflow.com/questions/55883940
复制相似问题