首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >用于语义分割的全卷积神经网络

用于语义分割的全卷积神经网络
EN

Stack Overflow用户
提问于 2018-01-26 16:10:53
回答 1查看 133关注 0票数 0

我可能有一个天真的问题,如果这不是问这类问题的合适渠道,我深表歉意。我已经成功地实现了用于语义分割的FCNN,但我不涉及反卷积或解合层。

我所要做的就是将真实图像的大小调整到我最终的FCNN层的大小,然后我计算我的损失。这样,我得到了一个较小的图像作为输出,但正确分割。

是否需要反卷积或解合池的过程?

我的意思是,在python中调整图像的大小是相当容易的,那么为什么要使用复杂的技术来做同样的事情呢?当然,我错过了一些东西。

使用unpooling和deconv放大图像的优势是什么?

EN

回答 1

Stack Overflow用户

发布于 2018-04-25 23:14:44

卷积步骤后网络的输出比原始图像小:你可能不想这样,你想对作为输入的图像进行语义分割。

如果您只是简单地将其调整为原始大小,则会插入新的像素,因此会缺乏精度。反卷积层允许学习这种调整大小(因为它们是在训练过程中通过反向传播学习的),因此可以提高分割精度。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/48457700

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档