我想知道编码器的隐藏状态对于注意力网络有多有用。当我研究一个注意力模型的结构时,我发现一个模型通常是这样的:h: Encoder's hidden state which feeds forward to the next encoder's因此,输入的顺序对输出的顺序不一定重要,在注意力模型同时查看所有输入的情况下,从先前的输入中记忆的内容也不重要。你就不能直接把注意力放在x的嵌入上吗?
我正在为html wysiwyg编辑器编写代码。我正在尝试修改编辑器中已经存在的表。我有一个菜单,可以从中修改表中的行/列。但是,当我删除一行/列时,我无法将焦点设置到附近的行/列。tbody.removeChild(tr); //tr is the row to be deleted pre_tr.childN