在为后面的密集层添加第一个LSTM层之后,是否需要指定input_dim (这意味着一行/示例中的特性数)?
我试图创建一个体系结构,包括2个LSTM层和1个转发层(200个单元)和1个转发层(2个单元)。首先,LSTM层为每个时间戳输出第二个LSTM层仅输出最后一个时间步骤,所以我想知道我是否正确地创建了该体系结构。
model.add(LSTM(units = 200, return_sequences = True, input_shape = (WINDOW_SIZE, 9), batch_size = 206))
model.add(LSTM(units = 200, return_sequences = False))
model.add(Dense(units = 200, input_dim = 9))
model.add(Dense(units = 2, input_dim = 9))
model.add(Dense(units = 1, input_dim = 9))发布于 2018-11-05 13:52:45
您不需要为后面的层指定input_dim,模型可以从前一层的输出形状推断出这些输入层的形状。
此外,当前指定的input_dim值与前一层的输出维度不匹配-例如,具有return_sequences = False的LSTM层的输出维度将是(200,)。使用此代码时,网络应该无法使用预期的输入大小错误进行编译。
您可以通过纠正或删除最后三层中的input_dim值来解决这个问题。
https://datascience.stackexchange.com/questions/40678
复制相似问题