热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

TensorFlow学习(十):CNN改进算法

C1层是一个卷积层6个特征图,每个特征图中的每个神经元与输入中5*5的邻域相连,特征图大小为28*28每个卷积神经元的参数数目:5*525个weight参数和一个bias参数链接数

TensorFlow 学习(十):CNN-改进算法

TensorFlow 学习(十):CNN-改进算法

TensorFlow 学习(十):CNN-改进算法

C1层是一个卷积层

6个特征图,每个特征图中的每个神经元与输入中5*5的邻域相连,特征图大小为28*28

每个卷积神经元的参数数目:5*5=25个weight参数和一个bias参数

链接数目:(5*5+1)*6*(28*28)=122304个链接

参数共享:每个特征图内共享参数,因此参数总数:共(5*5*1)*6=156个参数

S2层是一个下采样层

6个14*14的特征图,每个图中的每个单元与C1特征图中的一个2*2邻域相连接,

不重叠。因此,S2中每个特征图的大小是C1中的特征图大小的1/4。

S2层每个单元的4个输入相加,乘以一个可训练参数w,再加上一个可训练偏置b,结果通过sigmoid函数计算

连接数:(2*2+1)*1*14*14*6=5880个

参数共享:每个特征图内共享参数,因此有2*6=12个可训练参数

C3层是一个卷积层

16个卷积核,得到16张特征图,特征图大小为10*10

每个特征图中的每个神经元与S2中某几层的多个5*5的邻域相连;

例如:对于C3层第0张特征图,其每一个节点与S2层的第0~2张特征图,总共3个5*5个节点相连接。

S4层是一个下采样层

由16个5*5大小的特征图构成,特征图中的每个单元与C3中相应特征图的2*2邻域相连接。

连接数:(2*2+1)*5*5*16=2000个

参数共享:特征图内共享参数,每个特征图中的每个神经元需要1个因子和一个偏置,因此有2*16个可训练参数。

C5层是一个卷积层

120个神经元,可以看作120个特征图,每张特征图的大小为1*1

每个单元与S4层的全部16个单元的5*5邻域相连(S4和C5之间的全连接)

连接数=可训练参数:(5*5*16+1)*120=48120个

F6层是一个全连接层

有84个单元(之所以选这个数字的原因来自于输出层的设计),与C5层全连

接。

F6层计算输入向量和权重向量之间的点积,再加上一个偏置。

连接数=可训练参数:(120+1)*84=10164

84:stylized image:7*12

输出层采用欧氏径向基函数单元

给定一个输入模式,损失函数应能使得F6的配置与RBF参数向量(即模式的期

望分类)足够接近。

每类一个单元,每个单元连接84个输入;每个输出RBF单元计算输入向量和参

数向量之间的欧式距离。

RBF输出可以被理解为F6层配置空间的高斯分布的对数似然【-log-likelihood】

TensorFlow 学习(十):CNN-改进算法

AlexNet结构优化

非线性**函数:ReLU

防止过拟合的方法:Dropout,Data augmentation(数据增强)

大数据训练:百万级ImageNet图像数据

GPU实现:在每个GPU中放置一半核(或神经元),还有一个额外的技巧:

GPU间的通讯只在某些层进行。

LRN归一化:本质上,这个层也是为了防止**函数的饱和的。

ZF Net

基于AlexNet进行微调

Top5错误率11.2%

使用ReLU**函数和交叉熵损失函数

GoogleNet

Top5错误率6.7%;使用9个inception模块,改变CNN原串行结构,并行,共

22层;使用平均池化替代FC层;参数量仅为AlexNet的1/12;使用softmax获

取平均结果;网络结构的更新,性能比AlexNet要好;2014年ILSVRC冠军。

GoogLeNet借鉴了NIN的特性,在原先的卷积过程中附加了1*1的

卷积核加上ReLU**。

这不仅仅提升了网络的深度,提高了representation power,而且

文中还通过1*1的卷积来进行降维,减少了更新参数量。

Network-in-Network主要思想是,用全连接的多层感知机去代替

传统的卷积过程,以获取特征更加全面的表达,同时,因为前面已

经做了提升特征表达的过程,传统CNN最后的全连接层也被替换为

一个全局平均池化层,因为作者认为此时的map已经具备分类足够

的可信度了,它可以直接通过softmax来计算loss了。

Inception架构的主要思想是找出如何让已有的稠密组件接近与覆盖卷积视觉网络中的最佳局

部稀疏结构。

为了避免patch校准问题,现在的滤波器大小限制在1x1,3x3和5x5,主要是为了方便,不是

必要的。

另外,在pooling层添加一个额外的并行pooling路径用于提高效率。

TensorFlow 学习(十):CNN-改进算法

架构的第二个主要思想:在计算要求增加很多的地方应用维度缩减

和预测。即,在3x3和5x5的卷积前用一个1x1的卷积用于减少计算,

还用于修正线性**。如下图所示,左边是加入维度缩减之前的,

右边是加入维度缩减之后的。

TensorFlow 学习(十):CNN-改进算法

CNN-GoogleNet

CNN-VGGNet

CNN-ResNet

ILSVRC2015冠军,比VGG深8倍,超深网络,

最高可以达到152层;引入残差结构,更改

参数w的修改规则;top-5错误率3.6%;参

数更新中使用到RNN的思想

使用了一种连接方式叫做“shortcut connection”,顾名思义,

shortcut就是“抄近道”的意思。

TensorFlow 学习(十):CNN-改进算法

真正在使用的ResNet模块并不是这么单一,文章中就提出了两种方式

TensorFlow 学习(十):CNN-改进算法

实线的的Connection部分(“第一个粉色矩形和第

三个粉色矩形”)都是3x3x64的特征图,他们的

channel个数一致,所以采用计算方式:

y=F(x)+x

虚线的的Connection部分(”第一个绿色矩形和第

三个绿色矩形“)分别是3x3x64和3x3x128的特征

图,他们的channel个数不同(64和128),所以采

用计算方式:

y=F(x)+Wx

其中W是卷积操作,用来调整x的channel维度的。

TensorFlow 学习(十):CNN-改进算法

神经网络案例二

CNN卷积神经网络手写数字

VGG导入别人训练模型


推荐阅读
  • 干货 | 携程AI推理性能的自动化优化实践
    作者简介携程度假AI研发团队致力于为携程旅游事业部提供丰富的AI技术产品,其中性能优化组为AI模型提供全方位的优化方案,提升推理性能降低成本࿰ ... [详细]
  • 生成式对抗网络模型综述摘要生成式对抗网络模型(GAN)是基于深度学习的一种强大的生成模型,可以应用于计算机视觉、自然语言处理、半监督学习等重要领域。生成式对抗网络 ... [详细]
  • 也就是|小窗_卷积的特征提取与参数计算
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了卷积的特征提取与参数计算相关的知识,希望对你有一定的参考价值。Dense和Conv2D根本区别在于,Den ... [详细]
  • Learning to Paint with Model-based Deep Reinforcement Learning
    本文介绍了一种基于模型的深度强化学习方法,通过结合神经渲染器,教机器像人类画家一样进行绘画。该方法能够生成笔画的坐标点、半径、透明度、颜色值等,以生成类似于给定目标图像的绘画。文章还讨论了该方法面临的挑战,包括绘制纹理丰富的图像等。通过对比实验的结果,作者证明了基于模型的深度强化学习方法相对于基于模型的DDPG和模型无关的DDPG方法的优势。该研究对于深度强化学习在绘画领域的应用具有重要意义。 ... [详细]
  • 程度|也就是_论文精读:Neural Architecture Search without Training
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了论文精读:NeuralArchitectureSearchwithoutTraining相关的知识,希望对你有一定的参考价值。 ... [详细]
  • 微软头条实习生分享深度学习自学指南
    本文介绍了一位微软头条实习生自学深度学习的经验分享,包括学习资源推荐、重要基础知识的学习要点等。作者强调了学好Python和数学基础的重要性,并提供了一些建议。 ... [详细]
  • 浏览器中的异常检测算法及其在深度学习中的应用
    本文介绍了在浏览器中进行异常检测的算法,包括统计学方法和机器学习方法,并探讨了异常检测在深度学习中的应用。异常检测在金融领域的信用卡欺诈、企业安全领域的非法入侵、IT运维中的设备维护时间点预测等方面具有广泛的应用。通过使用TensorFlow.js进行异常检测,可以实现对单变量和多变量异常的检测。统计学方法通过估计数据的分布概率来计算数据点的异常概率,而机器学习方法则通过训练数据来建立异常检测模型。 ... [详细]
  • 背景应用安全领域,各类攻击长久以来都危害着互联网上的应用,在web应用安全风险中,各类注入、跨站等攻击仍然占据着较前的位置。WAF(Web应用防火墙)正是为防御和阻断这类攻击而存在 ... [详细]
  • 本博文基于《Amalgamationofproteinsequence,structureandtextualinformationforimprovingprote ... [详细]
  • 【论文】ICLR 2020 九篇满分论文!!!
    点击上方,选择星标或置顶,每天给你送干货!阅读大概需要11分钟跟随小博主,每天进步一丢丢来自:深度学习技术前沿 ... [详细]
  • OCR:用字符识别方法将形状翻译成计算机文字的过程Matlab:商业数学软件;CUDA:CUDA™是一种由NVIDIA推 ... [详细]
  • ICRA2019最佳论文  Making Sense of Vision and Touch: SelfSupervised Learning of Multimodal Representatio
    文章目录摘要模型架构模态编码器自监督预测控制器设计策略学习控制器设计实验结论和展望会议:ICRA2019标题:《MakingSenseofVision ... [详细]
  • 人工智能推理能力与假设检验
    最近Google的Deepmind开始研究如何让AI做数学题。这个问题的提出非常有启发,逻辑推理,发现新知识的能力应该是强人工智能出现自我意识之前最需要发展的能力。深度学习目前可以 ... [详细]
  • 深度学习与神经网络——邱锡鹏
    深度学习与神经网络——邱锡鹏-一、绪论人工智能的一个子领域神经网络:一种以(人工))神经元为基本单元的模型深度学习:一类机器学习问题,主要解决贡献度分配问题知识结构:路线图:顶 ... [详细]
  • bat大牛带你深度剖析android 十大开源框架_请收好!5大领域,21个必知的机器学习开源工具...
    全文共3744字,预计学习时长7分钟本文将介绍21个你可能没使用过的机器学习开源工具。每个开源工具都为数据科学家处理数据库提供了不同角度。本文将重点介绍五种机器学习的 ... [详细]
author-avatar
企鹅
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有