我已经使用几个Conv1D层创建并训练了神经网络。我的输入尺寸是125x3。我对每个Conv1D层使用相同的内核大小。我尝试了几种内核大小2、5、25、50甚至125,我使用的是“相同的”填充。Keras在内核大小等于输入大小的情况下工作,这对我来说是出乎意料的。更令人意想不到的是,126的内核大小也是有效的。内核大小为126,大于输入大小的架构示例:
inputs = keras.Input(shape=(125,3),dtype='float32')
out1 = Conv1D(20,126,padding='same',activation='relu')(inputs)
out1=BatchNormalization(name='BatchNormalization0')(out1)
out1 = Conv1D(112,126,padding='same',name='Conv1',activation='relu')(out1)
out1=BatchNormalization(name='BatchNormalization1')(out1)我不明白为什么它会起作用。有人能解释一下当我使用等于输入大小甚至大于输入大小的内核大小时,Keras会发生什么吗?
提前谢谢你!
发布于 2020-11-20 07:04:55
内核大小怎么会大于时间步长呢?
让我们来看看你的第二行
out1 = Conv1D(20,126,padding='same',activation='relu')(inputs)这将创建一个卷积输出20滤波器,并使用内核126,最重要的是将填充设置为same!。填充意味着在时间序列的开始和结束处放置足够的零,以便在卷积之后,输出时间步长等于输入时间步长。
如果输入时间步长是10,而内核是5,那么我们必须在数据的开始和结束处添加2个零。
在您的例子中,在内核为126的情况下,在卷积之前,将有62个0添加到数据的开头,63个添加到数据的末尾。
基本上,您正在对一堆零进行卷积。
https://stackoverflow.com/questions/64292820
复制相似问题