热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

经典的卷积神经网络(LeNet5AlexNetVGGGoogLeNetInceptionNetMobileNet)

ImageNet大规模视觉识别挑战赛(ILSVRC)ImageNet项目是一个用于视觉对象识别软件研究的大型可视化数据库2017年为最后一届在2010-


ImageNet大规模视觉识别挑战赛(ILSVRC)


ImageNet项目是一个用于视觉对象识别软件研究的大型可视化数据库


2017年为最后一届


 



在2010-2011年比较shallow的网络,中间层2-4层


在2012年那一篇爆炸性的paper出来,AlexNet(8层)在2012年ImageNet挑战赛上把错误率一下子降低了近10个百分点,也就是准确率提升了10个百分点。这在当时产生了很大的影响,从而使得大家开始关注深度学习


然后14年是19层的VGG和22层的GoogleNet。GoogleNet是第一名,VGG是第二名


15年微软亚洲研究院的华人学者何恺明提出了到现在为止非常有名气的,使用非常广泛的ResNet


 


 


LeNet5


94年提出,作者是Yann LeCun


LeNet-5 这个网络虽然很小,但是它包含了深度学习的基本模块:卷积层,池化层,全连接层。是其他深度学习模型的基础




①卷积层  ②下采样  ③卷积层  ④下采样  ⑤全连接  ⑥全连接  ⑦高斯连接


2个卷积层+后面3个全连接层    一共5层


也有7层的说法


 


因为MNIST数据集非常简单很容易就把准确率提得很高,当时LeNet5直接把准确率做到了99.2%


达到了这个准确率就可以很成熟得使用起来了


所以在当时美国的支票识别、邮编识别,当时的LeNet5直接垄断是50%的市场




 



AlexNet


第一个把深度学习引爆的神经网络结构


《ImageNet Classification with Deep Convolutional Neural Networks》这篇著名论文提出AlexNet


共8层,是在ImageNet数据集上跑的,这是一个非常大的数据集


当时是在2块GTX 580上跑的


目前AlexNet这种做法我们已经不使用了


ImageNet数据集是224*224,AlexNet的卷积核是11*11的




 


AlexNet有着和LeNet5类似的网络结构,但又新的地方


①首次引入pooling池化层(Max pooling) 和 ReLu


        这是Relu第一次引进来,之前是sigmoid或者一些不可导的接替函数


②使用了GPU实现


       因为网络结构的参数量已经达到了60M,所以使用了GPU加速。当时是训练了一个星期


③首次使用dropout regulation


抑制过拟合


 


 



VGG


由牛津大学的Visual Geometry Group小组提出,所以叫vgg


《Very Deep Convolutional Networks for Large-Scale Image Recognition》


 


VGG一共6个版本,有vgg11,vgg16,vgg19,vgg34等


VGG16包含16层,VGG19包含19层。一系列的VGG在最后三层的全连接层上完全一样,整体结构上都包含5组卷积层,卷积层之后跟一个MaxPool。所不同的是5组卷积层中包含的级联的卷积层越来越多。




AlexNet中每层卷积层中只包含一个卷积,卷积核的大小是11*11。在VGGNet中每层卷积层中包含2~4个卷积操作,卷积核的大小是3*3,卷积步长是1,池化核是2*2,步长为2,。


VGGNet最明显的改进就是降低了卷积核的尺寸,增加了卷积的层数


探索出大卷积核并没有很大的优势,反而小窗口能降低计算量,计算速度也更快


目前3*3,1*1是我们使用得非常广泛的卷积核size



可以看到卷积核的趋势是长宽越来越小,但是深度越来越多,即channel越来越多


 


 


 


 



GoogLeNet


google公司发明的,为了纪念LeNet,将L大写了组成后面的LeNet


22层


googlenet的创新点在于探索出同一层可以使用不同的卷积核得出的结果再拼接



 



operations就是计算量


 



InceptionNet

我们前面说过,alexnet-> vgg-net是使得网络变得更深和更宽
vgg-net再加深网络会遇到问题,它的精度不会再提升了
这时候就出现了resnet可以继续加深网络的层次


另一个解决这个问题的方向就是InceptionNet,同样可以解决网络层次不能再加深的问题


 


InceptionNet有多种版本,v1,v2,v3,v4,都是由Google研发的


 


深层网络遇到的问题


也就是InceptionNet解决的问题



 


InceptionNet V1结构


把输入经过一个1*1的卷积层去做分组,分组之后其通道数目就变成了原来的1/3




Inception分组卷积的优势


①一层上同时使用多种卷积核,看到各种层级的feature


②不同组之间的feature不交叉计算,减少了计算量




 


InceptionNet V2结构



 


V3结构



就是说我这一个格子本来是能看到一个3*3的视野域的,我现在只看到一个1*3的视野域,同时这个1*3的视野域的每个格子能看到3*1的视野域,这样我最后的神经元还是能看到3*3的视野域,但是参数能够降低33%


 


有了3*3的替换之后还可以替换n*n的



 


V4结构


引入skip connection



 



MobileNet

也是由Google开发的


能保证精度损失在可控的范围之内,大幅降低参数量和计算量


引入深度可分离卷积




可见MobileNet是分到极致


 


 



 


但是网络层数并不是越多越好,20多层应该是一个临界值,再往上反而效果会变差



 


 


 


 




推荐阅读
  • 生成式对抗网络模型综述摘要生成式对抗网络模型(GAN)是基于深度学习的一种强大的生成模型,可以应用于计算机视觉、自然语言处理、半监督学习等重要领域。生成式对抗网络 ... [详细]
  • 微软头条实习生分享深度学习自学指南
    本文介绍了一位微软头条实习生自学深度学习的经验分享,包括学习资源推荐、重要基础知识的学习要点等。作者强调了学好Python和数学基础的重要性,并提供了一些建议。 ... [详细]
  • 也就是|小窗_卷积的特征提取与参数计算
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了卷积的特征提取与参数计算相关的知识,希望对你有一定的参考价值。Dense和Conv2D根本区别在于,Den ... [详细]
  • 利用Visual Basic开发SAP接口程序初探的方法与原理
    本文介绍了利用Visual Basic开发SAP接口程序的方法与原理,以及SAP R/3系统的特点和二次开发平台ABAP的使用。通过程序接口自动读取SAP R/3的数据表或视图,在外部进行处理和利用水晶报表等工具生成符合中国人习惯的报表样式。具体介绍了RFC调用的原理和模型,并强调本文主要不讨论SAP R/3函数的开发,而是针对使用SAP的公司的非ABAP开发人员提供了初步的接口程序开发指导。 ... [详细]
  • Learning to Paint with Model-based Deep Reinforcement Learning
    本文介绍了一种基于模型的深度强化学习方法,通过结合神经渲染器,教机器像人类画家一样进行绘画。该方法能够生成笔画的坐标点、半径、透明度、颜色值等,以生成类似于给定目标图像的绘画。文章还讨论了该方法面临的挑战,包括绘制纹理丰富的图像等。通过对比实验的结果,作者证明了基于模型的深度强化学习方法相对于基于模型的DDPG和模型无关的DDPG方法的优势。该研究对于深度强化学习在绘画领域的应用具有重要意义。 ... [详细]
  • 背景应用安全领域,各类攻击长久以来都危害着互联网上的应用,在web应用安全风险中,各类注入、跨站等攻击仍然占据着较前的位置。WAF(Web应用防火墙)正是为防御和阻断这类攻击而存在 ... [详细]
  • Python脚本编写创建输出数据库并添加模型和场数据的方法
    本文介绍了使用Python脚本编写创建输出数据库并添加模型数据和场数据的方法。首先导入相应模块,然后创建输出数据库并添加材料属性、截面、部件实例、分析步和帧、节点和单元等对象。接着向输出数据库中添加场数据和历程数据,本例中只添加了节点位移。最后保存数据库文件并关闭文件。文章还提供了部分代码和Abaqus操作步骤。另外,作者还建立了关于Abaqus的学习交流群,欢迎加入并提问。 ... [详细]
  • {moduleinfo:{card_count:[{count_phone:1,count:1}],search_count:[{count_phone:4 ... [详细]
  • Introduction(简介)Forbeingapowerfulobject-orientedprogramminglanguage,Cisuseda ... [详细]
  • 【论文】ICLR 2020 九篇满分论文!!!
    点击上方,选择星标或置顶,每天给你送干货!阅读大概需要11分钟跟随小博主,每天进步一丢丢来自:深度学习技术前沿 ... [详细]
  • 我正在尝试将Firebase添加到涉及添加以下内容的现有应用程序中:classpath'com.googl ... [详细]
  • 人工智能推理能力与假设检验
    最近Google的Deepmind开始研究如何让AI做数学题。这个问题的提出非常有启发,逻辑推理,发现新知识的能力应该是强人工智能出现自我意识之前最需要发展的能力。深度学习目前可以 ... [详细]
  • 安装Tensorflow-GPU文档第一步:通过Anaconda安装python从这个链接https:www.anaconda.comdownload#window ... [详细]
  • 程度|也就是_论文精读:Neural Architecture Search without Training
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了论文精读:NeuralArchitectureSearchwithoutTraining相关的知识,希望对你有一定的参考价值。 ... [详细]
  • 干货 | 携程AI推理性能的自动化优化实践
    作者简介携程度假AI研发团队致力于为携程旅游事业部提供丰富的AI技术产品,其中性能优化组为AI模型提供全方位的优化方案,提升推理性能降低成本࿰ ... [详细]
author-avatar
隔壁小王
刚开始
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有