首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >全连接层大小

全连接层大小
EN

Stack Overflow用户
提问于 2019-06-13 22:08:03
回答 1查看 629关注 0票数 0

我正在使用conv net进行图像分类,我从头开始构建它

与垃圾相比,我得到了很好的结果

网络架构:

代码语言:javascript
复制
model = Sequential()
model.add(Conv2D(24,kernel_size=3,padding='same',activation='relu',
        input_shape=(n,n,1)))
model.add(MaxPool2D())
model.add(Conv2D(48,kernel_size=3,padding='same',activation='relu'))
model.add(MaxPool2D())
model.add(Conv2D(64,kernel_size=3,padding='same',activation='relu'))
model.add(MaxPool2D(padding='same'))
model.add(Conv2D(96,kernel_size=3,padding='same',activation='relu'))
model.add(MaxPool2D(padding='same'))
model.add(Flatten())
model.add(Dense(128, activation='relu'))    # SIZE 128  FC1
model.add(Dropout(0.5))
model.add(Dense(256, activation='relu'))   # SIZE 256   FC2
model.add(Dropout(0.5))
model.add(Dense(12, activation='softmax'))
model.compile(optimizer="adam", loss="categorical_crossentropy",metrics=[recall, fmeasure,precision,"accuracy"])  

正如你所看到的,我的第一个全连接层(FC1)的大小是128,下一个是256 (FC2)

拥有比FC1更大的FC2是不是很“愚蠢”?如何计算FC2上的价值?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-06-13 22:32:19

这不是愚蠢或错误,而是不同寻常。当你试图进行预测时,一般的想法是在到达输出层之前逐渐减少完全连接层中的神经元数量。如果增加大小对您的数据有效,那么它没有什么问题。只需记住,更多的神经元也会导致数据过度拟合,也会导致更多的计算时间。

没有计算FC层大小的规则。很多时候,第一个FC层的神经元数量与通过展平完全连接的层之前的最后一层而获得的向量长度相同,但这是一个旧的方法,没有必要,也不能保证良好的结果。

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/56582378

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档