深度学习VGG-NET 网络 概述 VGG名字来源于Visual Geometry Group, Department of Engineering Science, University of Oxford
综上,本文基于目前先进的深度神经网络 VGG-Net[2] 和大规模图像多标签分类数据集 MS-COCO-2017[3] 训练自动图像标注模型。 VGG-Net 通过堆叠多个卷积层来加深网络,且卷积层全部采用大小为 3×33×3 的小卷积核,步长为 11,填充为 11。 在若干卷积层后,VGG-Net 使用 2×22×2 的最大池化层,步长为 22。池化层用于减少特征图的尺寸,并保留主要的特征。 在最后的卷积层之后,VGG-Net 通过三个全连接层对特征进行进一步处理,最后输出分类结果。 在每个卷积层和全连接层之后,VGG-Net 使用 ReLU (Rectified Linear Unit) 激活函数,以增加网络的非线性。
模型搭建 在本项目中我们将使用VGG-Net网络模型。 VGG-Net有多种级别,其网络层数从11层到19层不等(这里的层数是指有参数更新的层,例如卷积层或全连接层),其中比较常用的是16层(VGG-Net-16)和19层(VGG-Net-19)。 图3 VGG-Net-16网络结构 VGG-Net中全部使用大小为3X3的小卷积核,希望模拟出更大的“感受野”效果,VGG-Net中的池化层均使用的是大小为2X2的最大池化。 VGG-Net的设计思想在ResNet和Inception模型中也都有被采用。图4所示是不同层数的VGG-Net。 ? 图4 不同层数的VGG-Net 本项目中我们使用的是VGG-Net-13,具体实现如下: 39 def vgg13_model(input_shape, classes): 40 model = tf.keras.Sequential
算法:VGG-Net。 不同于AlexNet的地方是:VGG-Net使用更多的层,通常有16-19层,而AlexNet只有8层。 同时,VGG-Net的所有 convolutional layer 使用同样大小的 convolutional filter,大小为 3 x 3。 算法:GoogLeNet。
2014年,VGG-Net 在ILSVRC localization and classification 两个问题上分别取得了第一名和第二名,VGG-Net不同于AlexNet的地方是:VGG-Net 另外一个不同的地方是:VGG-Net的所有 convolutional layer 使用同样大小的 convolutional filter,大小为 3 x 3。
到了 2014 年,牛津大学提出了另一种深度卷积网络 VGG-Net,它相比于 AlexNet 有更小的卷积核和更深的层级。 原论文:VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION VGG-Net 的泛化性能较好,常用于图像特征的抽取目标检测候选框生成等 VGG-Net 的参数主要出现在后面两个全连接层,每一层都有 4096 个神经元,可想而至这之间的参数会有多么庞大。 该网络共有 22 层,且包含了非常高效的 Inception 模块,它没有如同 VGG-Net 那样大量使用全连接网络,因此参数量非常小。
由于VGG-Net的所有 convolutional layer 使用同样大小的 convolutional filter,大小为 3 x 3,所以它的深度比较容易扩展,同时结构也比较简单。
[http://arxiv.org/pdf/1409.4842] VGG-Net Karen Simonyan and Andrew Zisserman, Very Deep Convolutional
与 Inception 同年提出的优秀网络还有 VGG-Net,它相比于 AlexNet 有更小的卷积核和更深的层级。 VGG-Net 的泛化性能非常好,常用于图像特征的抽取目标检测候选框生成等。 这一问题也是第一次提出 Inception 结构的 GoogLeNet 所重点关注的,它没有如同 VGG-Net 那样大量使用全连接网络,因此参数量非常小。
工程实践指导原则 这部分详细介绍了神经网络模型的基本结构和训练方法,例如列举了经典 CNN 结构:LeNet、AlexNet、VGG-Net、Inception、ResNet、ResNet 变种、SENet
工程实践指导原则 这部分详细介绍了神经网络模型的基本结构和训练方法,例如列举了经典 CNN 结构:LeNet、AlexNet、VGG-Net、Inception、ResNet、ResNet 变种、SENet
正则化 最优化基础 卷积神经网络 循环神经网络 工程实践指导原则 这部分详细介绍了神经网络模型的基本结构和训练方法,例如列举了经典 CNN 结构:LeNet、AlexNet、VGG-Net
最终网络结构如下: 其他网络结构 还有VGG-net,RES-net等,结构都是在最基本的网络结构上进行改进,比如R esNet结构 使用了一种连接方式叫做“shortcut connection
层输出分类 CNN进化史 1980 Neocognition 福岛邦彦 1998 Lenet-5 Lecun 2012 AlexNet Alex 2014 GoogLenet Google 2014 VGG-Net
例如AlexNet,GoogleNet、 VGG-Net、ResNet等都是通过加深网络的层次和深度来提高准确率。
这篇论文使用 VGG-Net 来分别从内容图像和风格图像中提取内容信息和风格信息,然后再分别计算它们和随机噪音图像之间的损失。
VGG-Net [http://www.robots.ox.ac.uk/~vgg/research/very_deep/] [http://arxiv.org/pdf/1409.1556] Karen
其中:实景GIS服务器存储设定空间内的三维地理信息和与之对应的实景图像库;图像训练服务器通过改进后的VGG-Net进行区域机器学习,训练图像分类器,并生成位置识别模型,传入定位服务器;定位服务器通过卫星定位系统粗略定位目标所在区域 服务器存储设定空间内的三维地理信息和与之对应的实景图像库,为图像训练服务器提供训练所需的360°实景图像;图像训练服务器以空间区域为单位,分批提取实景GIS服务器内存储的对应区域的360°实景图像,通过改进的VGG-Net
2D 视觉中聚合函数通常用较小的核(ResNet 和 VGG-Net 中使用 2×2 的池化核),问题并不严重。
深度神经网络是当前很多机器学习应用成功的关键,而深度学习的一大趋势,就是神经网络越来越深:以计算机视觉应用为例,从最开始的AlexNet,到后来的VGG-Net,再到最近的ResNet,网络的性能确实随着层数的增多而提升