由两个卷积层和一个输出层组成 作者还实现了另外两种神经网络和三种信号处理方法,以比较CNN-1的性能: CNN体系结构2 (CNN-2):类似于上述CNN体系结构,但在输出层之前包含一个额外的3单元全连接层 下图是使用静态SSVEP的受试者S1的CNN-2的特征表示。使用静态SSVEP数据表示CNN-2中每一层的平均特征。 下图为使用动态SSVEP的受试者S1的CNN-2的特征表示。使用动态SSVEP数据表示CNN-2中每一层的平均特征。
作者探索了三种CNN,它们使用为具有ReLU激活的CNN设计的表示学习概念,即CNN-2、CNN-50和CNN-deep。 CNN-50被设计为在两个卷积层后的第一个层之后有大的最大池化,从而为学习第一层的局部表示提供归纳偏差,而CNN-2使用小的最大池化,允许它通过将第一层中学习到的部分模式组合成更深层次的整体表示,以分层方式构建分布式表示 另一方面,设计用于学习分布式表示的CNN(CNN-2和CNN-deep)对大多数激活函数来说无法做到这一点,唯一的例外是指数激活,在定量(图1c)和定性上都产生了改进的模式匹配结果。