首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏hotarugaliの技术分享

    CNN

    简介 CNN 是专门用于处理网格化数据的神经网络。 CNN 中新增了 Convolution 层和 Pooling 层,CNN 的层的连接顺序是「Convolution-ReLU-(Pooling)」(Pooling 层有时会被省略)。 CNN 的优势 全连接层(Affine 层)忽略了数据的形状。比如,输入数据是图像时,图像通常是高、长、通道方向上的 3 维形状。但是,向全连接层输入时,需要将 3 维数据拉平为 1 维数据。 因此,在 CNN 中,可以(有可能)正确理解图像等具有形状的数据。 【注】把 3 维数据表示为多维数组时,书写顺序为(channel, height, width)。

    1.3K12编辑于 2022-03-10
  • 来自专栏大数据共享

    CNN

    和BP网络不同的是,cnn的特点是权值共享(卷积核filter),并且不需要人工的特征分析。 而在cnn中我们所使用的filter卷积核(三维,大小*通道数),遍历一个样本所使用的权值都是相同的,即所谓的权值共享。 通过一系列的卷积+池化的操作,完成了对图片数据的特征提取。 cnn的最后会将末端得到一个长长的向量,并送入全连接层配合输出层进行分类。 高维输入:图片由RGB三种像素,一个filter有一个通道数,输出结果为二维结构,为一个二维平面。

    57500编辑于 2022-01-02
  • 来自专栏DEEPLEARN

    CNN

    max pooling ''' return tf.nn.max\_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME') def cnn ))) y\_p = tf.matmul(net\_fc2,weight([84,10])) + biases(10) return y\_p # 3.搭建CNN tf.float32,[None,32,32,1], name='x') y\_t = tf.placeholder(tf.int32,[None,10],name='y\_t') y\_p = cnn

    1.3K01发布于 2019-03-18
  • 来自专栏深度学习自然语言处理

    CNN】多角度理解CNN

    这一角度可以更好理解传统神经网络和 CNN 之间的联系,其中左图是传统神经网络,右图是 Dense 神经网络视角下的 CNN。灰色连接对应于不可训练的 0。 setosa.io/ev/image-kernels/ [6] Visualizing what ConvNets learn: http://cs231n.github.io/understanding-cnn

    95120发布于 2020-03-04
  • 来自专栏书山有路勤为径

    Advanced CNN Architectures(R-CNN系列)

    R-CNN方法的主要缺点是依然很耗时,因为需要将每个裁剪区传入整个CNN中,然后才能生成一个类别标签。 Fast R-CNN R-CNN的下一个发展架构是Fast R-CNN。 这种架构使整个图像仅传入分类CNN一次,而不是通过分类CNN单独处理每个感兴趣区域(ROIs). FAST R-CNN是R-CNN的10倍,因为它只为给定的图像创建卷积层一次。Fast R-CNN也需要更短的时间来测试一个新图。测试时间主要由创建候选区域时间决定。 Faster R-CNN Faster R-CNN 学会生成自己的候选区域 它接受一个输入图像,将图像传入 CNN 直到特定的卷积层 就像 Fast R-CNN 一样。 通过消除非对象区域分析步骤,Faster R-CNN是所有区域CNN中最快速的模型。 ?

    98120发布于 2018-10-10
  • 来自专栏fangyangcoder

    CNN初探

    这个为CNN的局部感知奠定了一个基础。 最后,2005出现了一篇GPU实现CNN的paper,标志了一种实现CNN更有效的方式,之后在2012年ImageNet大赛中CNN由于其高精确度脱颖而出,于是,深度学习正式进入人们的视野。 2 CNN基本模块 CNN由输入和输出层以及多个隐藏层组成,隐藏层可分为卷积层,池化层、RELU层和全连通层。 CNN的特点 这里主要讨论CNN相比与传统的神经网络的不同之处,CNN主要有三大特色,分别是局部感知、权重共享和多卷积核 3.1 局部感知 局部感知就是我们上面说的感受野,实际上就是卷积核和图像卷积的时候 5.dropout dropout是一种正则化的方法,应用在CNN中,主要解决CNN过拟合的问题。 怎么理解这个东西呢,首先我们要知道为什么过拟合?

    71110发布于 2018-09-11
  • 来自专栏Python编程和深度学习

    目标检测系列之二(R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN

    目标检测系列之二(R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN) 内容目录 1 R-CNN1.1 候选框提取1.2 特征向量提取1.3 SVM分类1.4 候选框修正1.5 R-CNN的缺点2 Fast R-CNN2.1 RoI Pooling Layer2.2 Multi-task loss3 Faster R-CNN3.1 RPN(Region Proposal Networks 1.5 R-CNN的缺点 两个字:耗时。 考虑到R-CNN耗时的问题,Fast R-CNN被提出来,基于VGG16的Fast R-CNN在训练速度上比R-CNN快9倍,测试速度快了200多倍,思路如下: 1) 首先采用Selective Search 4 Mask R-CNN 论文题目《Mask R-CNN》 论文地址:https://arxiv.org/abs/1703.06870 Mask R-CNN主要由Faster R-CNN、RoI Align

    1.5K30发布于 2020-05-25
  • 来自专栏奔跑的键盘侠

    TensorFlow之CNN

    这是奔跑的键盘侠的第190篇文章 作者|我是奔跑的键盘侠 来源|奔跑的键盘侠(ID:runningkeyboardhero) 转载请联系授权(微信ID:ctwott) 接上一篇,我们继续…… CNN env python3.6 # -*- coding: utf-8 -*- # @Time : 2020-12-19 17:26 # @Author : Ed Frey # @File : CNN_study.py 和 tf.keras.optimizer num_epochs = 5 batch_size = 50 learning_rate = 0.001 model = CNN print("test accuracy: %f" % sparse_categorical_accuracy.result()) 代码其实跟MLP差不多,唯一的区别就是 model = CNN () 这一句中调用CNN模型换掉了,其他代码一模一样。

    54410发布于 2020-12-30
  • 来自专栏Soul Joy Hub

    TensorFlow实战——CNN

    参数太多(每个节点都要和下一层的所有节点连接) 容易过拟合 不能很好的抽取局部的特征(如一张有两只猫的图片,它偏向于抽取整张图的特征,而不是图中部分区域的特征) 鉴于以上的问题,我们介绍卷积神经网络(CNN 先介绍CNN中的池化层和卷积层。我们根据下图来讲解: ?

    54920发布于 2019-02-13
  • 来自专栏杨熹的专栏

    图解何为CNN

    参考 CNN - Convolutional Neural Networks 是近些年在机器视觉领域很火的模型,最先由 Yan Lecun 提出。 把白圆圈换成神经元,就是CNN的样子。 ? Convolution层的神经元之间没有联系,它们各自都只连接inputs。 ? CNN 也用 Back propagation 训练,所以也有 vanishing gradient 的可能。 一个典型的 Deep CNN 由若干组 Convolution-ReLU-Pooling 层组成。 ? 但CNN也有个缺点,因为它是监督式学习,所以需要大量的有标签的数据。

    1.3K50发布于 2018-04-02
  • 来自专栏AngelNI

    TF-CNN

    低头不是认输,是要看清自己的路;仰头不是骄傲,是要看见自己的天空。——科比·布莱恩特

    52310发布于 2020-04-16
  • 来自专栏机器之心

    Nature | 光学CNN层替换传统CNN层,超省电

    选自Nature 作者:Julie Chang 等 机器之心编译 参与:高璇、刘晓坤 CNN 计算效率的研究一直备受关注,但由于功率和带宽的严格限制,CNN 仍难以应用在嵌入式系统如移动视觉、自动驾驶中 CNN 计算效率的研究一直备受关注,但由于功率和带宽的严格限制,CNN 仍难以应用在嵌入式系统如移动视觉、自动驾驶和机器人、无线智能传感器中。 研究者提出一个位于前馈 CNN 之后的计算成像系统模型,用来协助输入图像的分类。通过将 CNN 的第一个卷积层引入光学器件,可以减少推理过程中的电路处理器的负载。 ASP 视觉系统曾探究过一种混合光电 CNN 的概念,使用 angle sensitive pixel(APS)来近似经典 CNN 的第一个卷积层,但是卷积核集是固定的。 图 3:混合光电 CNN。(a)有单个 opt-conv 层的模型原理图,对传感器图像进行处理并送入后续的数字 CNN 层。(b)优化的相位掩模模板和生成的相位掩模在不同缩放级别的显微图像。

    1.7K20发布于 2018-09-20
  • 来自专栏人工智能LeadAI

    CNN做句子分类:CNN Sentence Classification (with Theano code)

    01 Intro 本篇文章来细说CNN在NLP中的一大应用————句子分类。通过Yoon Kim的论文介绍一个应用,分析代码,并重构代码。 重构后的代码放在github(https://github.com/applenob/CNN_sentence),另附io博文地址(https://applenob.github.io/cnn_sc.html CNN(卷积神经网络),虽然出身于图像处理,但是它的思路,给我们提供了在NLP应用上的参考。 所谓的static和non-static的chanel解释如下: CNN-rand: 所有的word vector都是随机初始化的,同时当做训练过程中优化的参数; CNN-static: 所有的word 的Word2Vector工具(COW模型)得到的结果,但是会在训练过程中被Fine tuned; CNN-multichannel: CNN-static和CNN-non-static的混合版本,即两种类型的输入

    2.4K61发布于 2018-03-08
  • 来自专栏机器学习AI算法工程

    深度学习的目标检测技术演进:R-CNN、Fast R-CNN、Faster R-CNN

    2.只对原图提取一次卷积特征 在R-CNN中,每个候选框先resize到统一大小,然后分别作为CNN的输入,这样是很低效的。 Fast R-CNN SPP Net真是个好方法,R-CNN的进阶版Fast R-CNN就是在RCNN的基础上采纳了SPP Net方法,对RCNN作了改进,使得性能进一步提高。 R-CNN与Fast RCNN的区别有哪些呢? 画一画重点: R-CNN有一些相当大的缺点(把这些缺点都改掉了,就成了Fast R-CNN)。 大缺点:由于每一个候选框都要独自经过CNN,这使得花费的时间非常多。 对于属于某一特征的候选框,用回归器进一步调整其位置 总的来说,从R-CNN, SPP-NET, Fast R-CNN, Faster R-CNN一路走来,基于深度学习目标检测的流程变得越来越精简,精度越来越高

    1.6K60发布于 2018-04-17
  • 来自专栏杨熹的专栏

    用 Tensorflow 建立 CNN

    稍稍乱入的CNN,本文依然是学习周莫烦视频的笔记。 还有 google 在 udacity 上的 CNN 教程。 CNN(Convolutional Neural Networks) 卷积神经网络简单讲就是把一个图片的数据传递给CNN,原涂层是由RGB组成,然后CNN把它的厚度加厚,长宽变小,每做一层都这样被拉长, 在 CNN 中有几个重要的概念: stride padding pooling stride,就是每跨多少步抽取信息。每一块抽取一部分信息,长宽就缩减,但是厚度增加。 CNN的结构,分析一张图片时,先放一个CNN的图层,再把这个图层进行一个pooling。这样可以比较好的保持信息,之后再加第二层的CNN和pooling。 下面就是用 tensorflow 构建一个 CNN 的代码, 里面主要有4个layer,分别是: convolutional layer1 + max pooling; convolutional layer2

    93960发布于 2018-04-02
  • 来自专栏深度学习和计算机视觉

    CNN模型之SqueezeNet

    01.引言 SqueezeNet是Han等提出的一种轻量且高效的CNN模型,它参数比AlexNet少50x,但模型性能(accuracy)与AlexNet接近。 Han等将CNN模型设计的研究总结为四个方面: 模型压缩:对pre-trained的模型进行压缩,使其变成小模型,如采用网络剪枝和量化等手段; 对单个卷积层进行优化设计,如采用1x1的小卷积核,还有很多采用可分解卷积 , name="expand_3x3") return tf.concat([expand_1x1, expand_3x3], axis=3) 05.总结 本文简单介绍了移动端CNN

    86320编辑于 2022-04-06
  • 来自专栏机器学习、深度学习

    CNN交通场景解析--Spatial as Deep: Spatial CNN for Traffic Scene Understanding

    Spatial CNN 对空间关系建模的传统方法是基于 Markov Random Fields (MRF) or Conditional Random Fields (CRF)。 最近有人讲 CRF 和 CNN 结合起来使用。 ? mean field algorithm 可以通过 CNN网络实现。 而且这个过程是其CNN的输出进行处理的,可能对 CNN 网络中的 top hidden layer 输出信息处理更合适。 这里我们提出 Spatial CNN 来解决上面的问题 ? 传统CNN网络中 该卷积层的输出被送到第二个卷积层进行卷积。 这个视角不包括 CNN提取特征的时间

    1.8K30发布于 2019-05-27
  • 来自专栏全栈程序员必看

    ncnn笔记_cnn代码

    最近看了ncnn的源码,代码风格清爽, 遂想先抛开VULKAN记录一下它的推理流程。

    73920编辑于 2022-09-20
  • 来自专栏机器学习、深度学习

    手机CNN网络模型

    MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications

    1.4K40发布于 2019-05-26
  • 来自专栏计算机视觉理论及其实现

    Fast R-CNN

    1、摘要提出了一种基于区域卷积网络的快速目标检测方法(Fast R-CNN)。Fast R-CNN建立在以前工作的基础上,使用深度卷积网络有效地分类目标建议。 2.1、R-CNN and SPPnet基于区域的卷积网络方法(R-CNN)通过使用深度卷积网络对目标方案进行分类,获得了良好的目标检测精度。然而,R-CNN有明显的缺点:训练是一个多阶段的过程。 贡献针对R-CNN和SPPnet的缺点,提出了一种新的训练算法,提高了它们的速度和精度。我们称这种方法为Fast R-CNN,因为它训练和测试相对较快。Fast R-CNN方法有几个优点:1. 特性缓存不需要磁盘存储3、Fast R-CNN的结构和训练图1展示了Fast R-CNN架构。一个Fast R-CNN网络将整个图像和一组目标建议作为输入。 表4比较训练时间和测试时间和R-CNN、SPPnet、Fast R-CNN在VOC07上的mAP。有截断SVD时Fast R-CNN比R-CNN快213倍,没有时快146倍。

    2K10编辑于 2022-09-04
领券