我正在研究seq2seq模型,我想使用Keras Blog Bonus FAQ中给出的嵌入层。以下是我的代码,其中num_encoder_tokens为67,num_decoder_tokens为11。

我得到了图中所示的问题。

谁能帮我重塑嵌入层或输入形状的output_shape层扫描隧道显微镜,因为我不知道怎么做。
发布于 2021-11-30 07:13:20
您的输入应为:
encoder_inputs = keras.Input(shape=(None,))和
decoder_inputs = keras.Input(shape=(None,))这将允许您具有可变的输入长度。
https://stackoverflow.com/questions/70164683
复制相似问题