我有一个看起来像这样的神经网络。
input_layer_1 input_layer_2
| |
| |
some_stuff some_other_stuff
| /|
| _________________/ |
| / |
multiply |
| |
| |
output_1 output_2在反向传播过程中,是否有可能切断some_other_stuff和multiply之间的连接?我在想dropout,但这也适用于前向传播
因此,在反向传播期间,它应该像两个网络:
input_layer_1 input_layer_2
| |
| |
some_stuff some_other_stuff
| |
| |
| |
multiply |
| |
| |
output_1 output_2Output_1误差仅影响网络左侧的权重调整,而Output_2误差仅影响右侧的权重调整。
我正在使用keras和tensorflow,所以可能有一些函数/层可以实现这一点。
谢谢。
发布于 2018-01-31 09:52:39
如果有人想知道,您可以在Lambda层中使用K.gradient_stop()
https://stackoverflow.com/questions/48466009
复制相似问题