我的工作是分析脑电数据,这些数据最终需要分类。然而,获得唱片的标签有点昂贵,这促使我考虑了无监督的方法,以更好地利用我们相当数量的未标记数据。
这自然导致考虑堆叠的自动编码器,这可能是一个好主意。然而,使用卷积神经网络也是有意义的,因为某种类型的滤波通常是一种非常有用的EEG方法,很可能考虑的时间应该是局部的,而不是作为一个整体来分析。
有什么好办法把这两种方法结合起来吗?似乎当人们使用CNN的时候,他们通常使用监督训练,还是什么?为我的问题探索神经网络的两个主要好处似乎是无监督的方面,以及微调(例如,创建一个关于人口数据的网络,然后对一个人进行微调)。
那么,有没有人知道我是否可以把CNN训练得像个“残废”的自动编码器,还是毫无意义?
例如,我是否应该考虑一些其他的架构,比如一个深层次的信仰网络?
发布于 2017-03-21 22:00:07
是的,使用CNN与自动编码器或其他无监督的方法是有意义的。事实上,CNN与无监督训练相结合的不同方法已经尝试过用于EEG数据,包括使用(卷积和/或堆叠)自动编码器。
示例:
脑电记录的深度特征学习使用具有自定义约束的卷积自动编码器来提高学科和试验的泛化能力。
基于脑电图的驾驶员认知性能的深卷积神经网络预测在单电极上使用卷积深信度网络,并将它们与完全连接的层相结合。
一种新的脑电运动图像分类的深度学习方法使用完全连接的堆叠式自动编码器来输出经过监督训练的(相当浅薄的) CNN。
但是,纯粹受监督的CNNs在脑电数据方面也取得了成功,例如:
基于卷积神经网络的深度学习对人脑脑电运动相关信息的映射和解码 (披露:我是本书的第一作者,更多相关工作见第44页)
请注意,EEGNet的论文显示,如果试验数量较少,对他们的CNN进行纯粹的监督培训可以超过其基线(见图3)。此外,在只有288次培训试验的数据集上,纯监督的CNN工作得很好,略优于传统的过滤器库公共空间模式基线。
发布于 2017-03-21 14:29:05
是的,您可以在自动编码器设置中使用卷积网络。没有什么奇怪的。不过,人们在计算反褶积层时也有问题。
在这里,您可以找到一个使用Keras框架的卷积自动编码器的示例:https://blog.keras.io/building-autoencoders-in-keras.html
https://datascience.stackexchange.com/questions/17737
复制相似问题