我看了一下泽勒·(arxiv/pdf)的论文,以及他在youtube上演讲的一些视频,当时我正试图用tensorflow复制这篇文章,我偶然发现了一种叫做自动编码器的东西,它的程序看起来(无论是对还是外部的)都很相似,比如:
在泽勒的论文中:
在自动编码器中:
将其与我在github (github python文件)上看到的自动编码器进行比较,可以这样做:
因此,要对conv网使用tensorflow所做的工作进行可视化,代码与这个自动编码器有什么不同?我被困在试图弄清楚给定一组训练数据和经过训练的convnet时,我会像论文中提到的那样,将图像所具有的或没有的东西可视化,以引起激活。(其中一位作者在这个(clarifai.com NSFW)上写了一个博客,展示了他们的技术,论文的技术是用caffe在开源代码(深度)中复制的,但我对caffe并不熟悉,对tensorflow来说也是新手)。这是怎么做的?
发布于 2016-05-26 16:54:00
可能不是完全的比较,但是
conv2d_transpose层,它与conv2d正好相反,但可以在训练期间学习参数。这样的图层看起来比只记录泽勒方法中的最大像素位置更灵活(即更多的参数)。https://stackoverflow.com/questions/37463181
复制相似问题