作家
登录

CNN浅析和历年ImageNet冠军模型解析

作者: 来源: 2017-04-26 14:32:11 阅读 我要评论

简单说,卷积就是应用完全雷同的(参数雷同)的模板去进行局部连接,所以参数量可以持续骤降

我们不须要再担心有若干隐含节点或者图片有多大年夜,参数量只跟卷积核的大年夜小有关,这也就是所谓的权值共享。然则如不雅我们只有一个卷积核,我们就只能提取一种卷积核滤波的结不雅,即只能提取一种图片特点,这不是我们期望的结不雅。好在图像中最根本的特点很少,我们可以增长卷积核的数量来多提取一些特点。

2015岁首?年代的Inception V2提出了Batch Normalization,大年夜大年夜加快了练习过程,并晋升了收集机能。2015年事终的Inception V3则持续优化了收集构造,提出了Factorization in Small Convolutions的思惟,分化大年夜尺寸卷积为多个小卷积甚至一维卷积。

图像中的根本特点无非就是点和边,无论多么复杂的图像都是点和边组合而成的。人眼辨认物体的方法也是大年夜点和边开端的,视觉神经元接收光旌旗灯号后,每一个神经元只接收一个区域的旌旗灯号,并提掏出点和边的特点,然后将点和边的旌旗灯号传递给后面一层的神经元,再接着组合成高阶特点,比如三角形、正方形、直线、拐角等,再持续抽象组合,获灯揭捉?睛、鼻子和嘴等五官,最后再将五官组合成一张脸,完成匹配辨认。

是以我们的问题就很好解决了,只要我们供给的卷积核数量足够多,能提掏出各类偏向的边或各类形态的点,就可以让卷积层抽象出有效而丰富的高阶特点。每一个卷积核滤波获得的图像就是一类特点的映射,即一个Feature Map。一般来说,我们应用100个卷积核放在第一个卷积层就已经很充分了。

那如许的话,如上图所示,我们的参数量就是100×100=1万个,比拟之前的1亿又缩小了10000倍。是以,依附卷积,我们就可以高效地练习局部连接的神经收集了。卷积的好处是,不管图片尺寸若何,我们须要练习的权值数量只跟卷积核大年夜小、卷积核数量有关,我们可以应用异常少的参数量处理随便率性大年夜小的图片。每一个卷积层提取的特点,在后面的层中都邑抽象组合成更高阶的特点。

个中,局部连接和权值共享降低了参数量,使练习复杂度大年夜大年夜降低,并减轻了过拟合。同时权值共享还付与了卷积收集对平移的容忍性,而池化层降采样则进一步降低了输出参数量,并付与模型对轻度形变的容忍性,进步了模型的泛化才能。

卷积神经收集比拟传统的机械进修算法,无须手工提取特点,也不须要应用诸如SIFT之类的特点提取算法,可以在练习中主动完成特点的提取和抽象,并同时进行模式分类,大年夜大年夜降低了应用图像识其余难度;比拟一般的神经收集,CNN在构造上和图片的空间构造更为切近,都是2D的有接洽的构造,并且CNN的卷积连接方法和人的视觉神经处理光旌旗灯号的方法类似。

下面介绍一下经典的卷积收集LeNet5。

大年夜名鼎鼎的LeNet5 出生于1994年,是最早的深层卷积神经收集之一,并且推动了深度进修的成长。大年夜1988年开端,在多次成功的迭代后,这项由Yann LeCun完成的开辟性结不雅被定名为LeNet5。

LeCun认为,可练习参数的卷积层是一种用少量参数在图像的多个地位上提取类似特点的有效方法,这和直接把每个像素作为独裁神经收集的输入不合。像素不该该被应用在输入层,因为图像具有很强的空间相干性,而应用图像中自力的像素直接作为输入则应用不到这些相干性。

LeNet5当时的特点有如下几点。

  • 每个卷积层包含三个部分:卷积、池豢?浊线性激活函数
  • 应用卷积提取空间特点
  • 降采样(Subsample)的平均池化层(Average Pooling)
  • 双曲正切(Tanh)或S型(Sigmoid)的激活函数
  • MLP作为最后的分类器
  • 层与层之间的稀少连接削减计算复杂度

LeNet5中的诸独特点如今依然在state-of-the-art卷积神经收集中应用,可以说LeNet5是奠定了现代卷积神经收集的基石之作。Lenet-5的构造下图所示。

它的输入图像为32×32的灰度值图像,后面有3个卷积层,1个全连接层和1个高斯连接层。

下面我们来介绍一些其他几个经典的卷积收集构造,AlexNet、VGGNet、Google Inception Net和ResNet,这4种收集按照出现的先后次序分列,深度和复杂度也依次递进。

它们分别获得了ILSVRC(ImageNet Large Scale Visual Recognition Challenge)比赛分类项目标2012年冠军(AlexNet, top-5缺点率16.4%,应用额外数据可达到15.3%,8层神经收集)、2014年亚军(VGGNet,top-5缺点率7.3%,19层神经收集),2014年冠军(InceptionNet,top-5缺点率6.7%,22层神经收集)和2015年的冠军(ResNet,top-5缺点率3.57%,152层神经收集)。

如图所示,ILSVRC的top-5缺点率在比来几年取得重大年夜冲破,而重要的冲破点都是在深度进修和卷积神经收集,成就的大年夜幅晋升几乎都伴跟着卷积神经收集的层数加深。

前面提到的计算机视觉比赛ILSVRC应用的数据都来自ImageNet,如上图所示。ImageNet项目于2007年由斯坦福大年夜学华人传授李飞飞创办,目标是收集大年夜量带有标注信息的图片数据供计算机视觉模型练习。ImageNet拥有1500万张标注过的高清图片,总共拥有22000类,个中约有100万张标注了图片中重要物体的定位边框。


  推荐阅读

  Docker更名Moby,也是无奈之举

事实上很好懂得,提起Docker很多人的第一反竽暌功是这是一个开源项目,而不是一个产品或者一个公司,这对于Docker公司很难堪。这事理就如同Linux范畴的RedHat,假如红帽公司名叫Linux,还>>>详细阅读


本文标题:CNN浅析和历年ImageNet冠军模型解析

地址:http://www.17bianji.com/lsqh/34972.html

关键词: 探索发现

乐购科技部分新闻及文章转载自互联网,供读者交流和学习,若有涉及作者版权等问题请及时与我们联系,以便更正、删除或按规定办理。感谢所有提供资讯的网站,欢迎各类媒体与乐购科技进行文章共享合作。

网友点评
自媒体专栏

评论

热度

精彩导读
栏目ID=71的表不存在(操作类型=0)