首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏hotarugaliの技术分享

    CNN

    简介 CNN 是专门用于处理网格化数据的神经网络。 CNN 中新增了 Convolution 层和 Pooling 层,CNN 的层的连接顺序是「Convolution-ReLU-(Pooling)」(Pooling 层有时会被省略)。 CNN 的优势 全连接层(Affine 层)忽略了数据的形状。比如,输入数据是图像时,图像通常是高、长、通道方向上的 3 维形状。但是,向全连接层输入时,需要将 3 维数据拉平为 1 维数据。 因此,在 CNN 中,可以(有可能)正确理解图像等具有形状的数据。 【注】把 3 维数据表示为多维数组时,书写顺序为(channel, height, width)。

    1.3K12编辑于 2022-03-10
  • 来自专栏大数据共享

    CNN

    和BP网络不同的是,cnn的特点是权值共享(卷积核filter),并且不需要人工的特征分析。 而在cnn中我们所使用的filter卷积核(三维,大小*通道数),遍历一个样本所使用的权值都是相同的,即所谓的权值共享。 通过一系列的卷积+池化的操作,完成了对图片数据的特征提取。 cnn的最后会将末端得到一个长长的向量,并送入全连接层配合输出层进行分类。 高维输入:图片由RGB三种像素,一个filter有一个通道数,输出结果为二维结构,为一个二维平面。

    56300编辑于 2022-01-02
  • 来自专栏DEEPLEARN

    CNN

    max pooling ''' return tf.nn.max\_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME') def cnn ))) y\_p = tf.matmul(net\_fc2,weight([84,10])) + biases(10) return y\_p # 3.搭建CNN tf.float32,[None,32,32,1], name='x') y\_t = tf.placeholder(tf.int32,[None,10],name='y\_t') y\_p = cnn

    1.3K01发布于 2019-03-18
  • 来自专栏深度学习自然语言处理

    CNN】多角度理解CNN

    这一角度可以更好理解传统神经网络和 CNN 之间的联系,其中左图是传统神经网络,右图是 Dense 神经网络视角下的 CNN。灰色连接对应于不可训练的 0。 setosa.io/ev/image-kernels/ [6] Visualizing what ConvNets learn: http://cs231n.github.io/understanding-cnn

    93920发布于 2020-03-04
  • 来自专栏书山有路勤为径

    Advanced CNN Architectures(R-CNN系列)

    R-CNN方法的主要缺点是依然很耗时,因为需要将每个裁剪区传入整个CNN中,然后才能生成一个类别标签。 Fast R-CNN R-CNN的下一个发展架构是Fast R-CNN。 这种架构使整个图像仅传入分类CNN一次,而不是通过分类CNN单独处理每个感兴趣区域(ROIs). FAST R-CNN是R-CNN的10倍,因为它只为给定的图像创建卷积层一次。Fast R-CNN也需要更短的时间来测试一个新图。测试时间主要由创建候选区域时间决定。 Faster R-CNN Faster R-CNN 学会生成自己的候选区域 它接受一个输入图像,将图像传入 CNN 直到特定的卷积层 就像 Fast R-CNN 一样。 通过消除非对象区域分析步骤,Faster R-CNN是所有区域CNN中最快速的模型。 ?

    96220发布于 2018-10-10
  • 来自专栏fangyangcoder

    CNN初探

    这个为CNN的局部感知奠定了一个基础。 最后,2005出现了一篇GPU实现CNN的paper,标志了一种实现CNN更有效的方式,之后在2012年ImageNet大赛中CNN由于其高精确度脱颖而出,于是,深度学习正式进入人们的视野。 2 CNN基本模块 CNN由输入和输出层以及多个隐藏层组成,隐藏层可分为卷积层,池化层、RELU层和全连通层。 CNN的特点 这里主要讨论CNN相比与传统的神经网络的不同之处,CNN主要有三大特色,分别是局部感知、权重共享和多卷积核 3.1 局部感知 局部感知就是我们上面说的感受野,实际上就是卷积核和图像卷积的时候 5.dropout dropout是一种正则化的方法,应用在CNN中,主要解决CNN过拟合的问题。 怎么理解这个东西呢,首先我们要知道为什么过拟合?

    68110发布于 2018-09-11
  • 来自专栏Python编程和深度学习

    目标检测系列之二(R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN

    目标检测系列之二(R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN) 内容目录 1 R-CNN1.1 候选框提取1.2 特征向量提取1.3 SVM分类1.4 候选框修正1.5 R-CNN的缺点2 Fast R-CNN2.1 RoI Pooling Layer2.2 Multi-task loss3 Faster R-CNN3.1 RPN(Region Proposal Networks 1.5 R-CNN的缺点 两个字:耗时。 考虑到R-CNN耗时的问题,Fast R-CNN被提出来,基于VGG16的Fast R-CNN在训练速度上比R-CNN快9倍,测试速度快了200多倍,思路如下: 1) 首先采用Selective Search 4 Mask R-CNN 论文题目《Mask R-CNN》 论文地址:https://arxiv.org/abs/1703.06870 Mask R-CNN主要由Faster R-CNN、RoI Align

    1.5K30发布于 2020-05-25
  • 来自专栏奔跑的键盘侠

    TensorFlow之CNN

    这是奔跑的键盘侠的第190篇文章 作者|我是奔跑的键盘侠 来源|奔跑的键盘侠(ID:runningkeyboardhero) 转载请联系授权(微信ID:ctwott) 接上一篇,我们继续…… CNN env python3.6 # -*- coding: utf-8 -*- # @Time : 2020-12-19 17:26 # @Author : Ed Frey # @File : CNN_study.py 和 tf.keras.optimizer num_epochs = 5 batch_size = 50 learning_rate = 0.001 model = CNN print("test accuracy: %f" % sparse_categorical_accuracy.result()) 代码其实跟MLP差不多,唯一的区别就是 model = CNN () 这一句中调用CNN模型换掉了,其他代码一模一样。

    52710发布于 2020-12-30
  • 来自专栏Soul Joy Hub

    TensorFlow实战——CNN

    参数太多(每个节点都要和下一层的所有节点连接) 容易过拟合 不能很好的抽取局部的特征(如一张有两只猫的图片,它偏向于抽取整张图的特征,而不是图中部分区域的特征) 鉴于以上的问题,我们介绍卷积神经网络(CNN 先介绍CNN中的池化层和卷积层。我们根据下图来讲解: ?

    53320发布于 2019-02-13
  • 来自专栏AngelNI

    TF-CNN

    低头不是认输,是要看清自己的路;仰头不是骄傲,是要看见自己的天空。——科比·布莱恩特

    50910发布于 2020-04-16
  • 来自专栏杨熹的专栏

    图解何为CNN

    参考 CNN - Convolutional Neural Networks 是近些年在机器视觉领域很火的模型,最先由 Yan Lecun 提出。 把白圆圈换成神经元,就是CNN的样子。 ? Convolution层的神经元之间没有联系,它们各自都只连接inputs。 ? CNN 也用 Back propagation 训练,所以也有 vanishing gradient 的可能。 一个典型的 Deep CNN 由若干组 Convolution-ReLU-Pooling 层组成。 ? 但CNN也有个缺点,因为它是监督式学习,所以需要大量的有标签的数据。

    1.3K50发布于 2018-04-02
  • 来自专栏机器之心

    Nature | 光学CNN层替换传统CNN层,超省电

    选自Nature 作者:Julie Chang 等 机器之心编译 参与:高璇、刘晓坤 CNN 计算效率的研究一直备受关注,但由于功率和带宽的严格限制,CNN 仍难以应用在嵌入式系统如移动视觉、自动驾驶中 CNN 计算效率的研究一直备受关注,但由于功率和带宽的严格限制,CNN 仍难以应用在嵌入式系统如移动视觉、自动驾驶和机器人、无线智能传感器中。 研究者提出一个位于前馈 CNN 之后的计算成像系统模型,用来协助输入图像的分类。通过将 CNN 的第一个卷积层引入光学器件,可以减少推理过程中的电路处理器的负载。 ASP 视觉系统曾探究过一种混合光电 CNN 的概念,使用 angle sensitive pixel(APS)来近似经典 CNN 的第一个卷积层,但是卷积核集是固定的。 图 3:混合光电 CNN。(a)有单个 opt-conv 层的模型原理图,对传感器图像进行处理并送入后续的数字 CNN 层。(b)优化的相位掩模模板和生成的相位掩模在不同缩放级别的显微图像。

    1.7K20发布于 2018-09-20
  • 来自专栏人工智能LeadAI

    CNN做句子分类:CNN Sentence Classification (with Theano code)

    01 Intro 本篇文章来细说CNN在NLP中的一大应用————句子分类。通过Yoon Kim的论文介绍一个应用,分析代码,并重构代码。 重构后的代码放在github(https://github.com/applenob/CNN_sentence),另附io博文地址(https://applenob.github.io/cnn_sc.html CNN(卷积神经网络),虽然出身于图像处理,但是它的思路,给我们提供了在NLP应用上的参考。 所谓的static和non-static的chanel解释如下: CNN-rand: 所有的word vector都是随机初始化的,同时当做训练过程中优化的参数; CNN-static: 所有的word 的Word2Vector工具(COW模型)得到的结果,但是会在训练过程中被Fine tuned; CNN-multichannel: CNN-static和CNN-non-static的混合版本,即两种类型的输入

    2.4K61发布于 2018-03-08
  • 来自专栏机器学习AI算法工程

    深度学习的目标检测技术演进:R-CNN、Fast R-CNN、Faster R-CNN

    2.只对原图提取一次卷积特征 在R-CNN中,每个候选框先resize到统一大小,然后分别作为CNN的输入,这样是很低效的。 Fast R-CNN SPP Net真是个好方法,R-CNN的进阶版Fast R-CNN就是在RCNN的基础上采纳了SPP Net方法,对RCNN作了改进,使得性能进一步提高。 R-CNN与Fast RCNN的区别有哪些呢? 画一画重点: R-CNN有一些相当大的缺点(把这些缺点都改掉了,就成了Fast R-CNN)。 大缺点:由于每一个候选框都要独自经过CNN,这使得花费的时间非常多。 对于属于某一特征的候选框,用回归器进一步调整其位置 总的来说,从R-CNN, SPP-NET, Fast R-CNN, Faster R-CNN一路走来,基于深度学习目标检测的流程变得越来越精简,精度越来越高

    1.6K60发布于 2018-04-17
  • 来自专栏机器学习、深度学习

    CNN交通场景解析--Spatial as Deep: Spatial CNN for Traffic Scene Understanding

    Spatial CNN 对空间关系建模的传统方法是基于 Markov Random Fields (MRF) or Conditional Random Fields (CRF)。 最近有人讲 CRF 和 CNN 结合起来使用。 ? mean field algorithm 可以通过 CNN网络实现。 而且这个过程是其CNN的输出进行处理的,可能对 CNN 网络中的 top hidden layer 输出信息处理更合适。 这里我们提出 Spatial CNN 来解决上面的问题 ? 传统CNN网络中 该卷积层的输出被送到第二个卷积层进行卷积。 这个视角不包括 CNN提取特征的时间

    1.8K30发布于 2019-05-27
  • 来自专栏杨熹的专栏

    用 Tensorflow 建立 CNN

    稍稍乱入的CNN,本文依然是学习周莫烦视频的笔记。 还有 google 在 udacity 上的 CNN 教程。 CNN(Convolutional Neural Networks) 卷积神经网络简单讲就是把一个图片的数据传递给CNN,原涂层是由RGB组成,然后CNN把它的厚度加厚,长宽变小,每做一层都这样被拉长, 在 CNN 中有几个重要的概念: stride padding pooling stride,就是每跨多少步抽取信息。每一块抽取一部分信息,长宽就缩减,但是厚度增加。 CNN的结构,分析一张图片时,先放一个CNN的图层,再把这个图层进行一个pooling。这样可以比较好的保持信息,之后再加第二层的CNN和pooling。 下面就是用 tensorflow 构建一个 CNN 的代码, 里面主要有4个layer,分别是: convolutional layer1 + max pooling; convolutional layer2

    91660发布于 2018-04-02
  • 来自专栏深度学习和计算机视觉

    CNN模型之SqueezeNet

    01.引言 SqueezeNet是Han等提出的一种轻量且高效的CNN模型,它参数比AlexNet少50x,但模型性能(accuracy)与AlexNet接近。 Han等将CNN模型设计的研究总结为四个方面: 模型压缩:对pre-trained的模型进行压缩,使其变成小模型,如采用网络剪枝和量化等手段; 对单个卷积层进行优化设计,如采用1x1的小卷积核,还有很多采用可分解卷积 , name="expand_3x3") return tf.concat([expand_1x1, expand_3x3], axis=3) 05.总结 本文简单介绍了移动端CNN

    84620编辑于 2022-04-06
  • 来自专栏AI 算法笔记

    cnn调优总结

    转载自 Charlotte数据挖掘 资料来自网上,略有删改 针对CNN优化的总结 Systematic evaluation of CNN advances on the ImageNet 使用没有 batchnorm 其他可以详细看看论文,作者很辛苦的对比了各种超参数对CNN模型性能的影响,非常值得一看。 你可以只在大的完全连接层上使用它,然后避免在 CNN 层上使用。 修改你的模型,只要可能就使用 1x1 的 CNN 层,它的位置对提高性能很有帮助。 假如没有高端的 GPU,就不要尝试训练任何东西了。 评估一些其他的神经网络方法,例如LVQ, MLP, CNN, LSTM, hybrids等 选取性能最好的算法,然后通过进一步的调参和数据准备来提升。

    89120发布于 2019-09-23
  • 来自专栏智能算法

    一文读懂目标检测:R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSD

    ) Fast R-CNN(Selective Search + CNN + ROI) Faster R-CNN(RPN + CNN + ROI) R-FCN 等系列方法; 3. 3.3 Fast R-CNN SPP Net真是个好方法,R-CNN的进阶版Fast R-CNN就是在R-CNN的基础上采纳了SPP Net方法,对R-CNN作了改进,使得性能进一步提高。 R-CNN与Fast R-CNN的区别有哪些呢? 简言之,即如本文开头所列 R-CNN(Selective Search + CNN + SVM) SPP-net(ROI Pooling) Fast R-CNN(Selective Search + CNN + ROI) Faster R-CNN(RPN + CNN + ROI) 总的来说,从R-CNN, SPP-NET, Fast R-CNN, Faster R-CNN一路走来,基于深度学习目标检测的流程变得越来越精简

    16.7K48发布于 2019-12-06
  • 来自专栏从流域到海域

    tensorflow入门:CNN for MNIST

    使用tensorflow构建如上图所示的CNN用于对MNIST数据集进行softmax classification。

    63520发布于 2019-05-26
领券