热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

深度学习卷积层与全连接层权重参数个数的计算

1、卷积网络实例分析构建卷积网络如下:fromtensorflow.python.kerasimportdatasets,models,layersclassCNN(object

1、卷积网络实例分析

构建卷积网络如下:


from tensorflow.python.keras import datasets, models, layers
class CNN(object):def __init__(self):model = models.Sequential()# 第1层卷积,卷积核大小为3*3,32个卷积核,28*28为待训练图片的大小model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1)))# 池化层model.add(layers.MaxPooling2D(2, 2))# 第2层卷积,卷积核大小为3*3,64个卷积核model.add(layers.Conv2D(64, (3, 3), activation='relu'))# 池化层model.add(layers.MaxPooling2D(2, 2))# 第3层卷积,卷积核大小为3*3,128个卷积核model.add(layers.Conv2D(128, (3, 3), activation='relu'))# 池化层model.add(layers.MaxPooling2D(2, 2))# 拉成1维形状model.add(layers.Flatten())# 第4层全连接层,64个神经元model.add(layers.Dense(64, activation='relu'))# 第5层全连接层 10个神经元,softmax 多用于分类model.add(layers.Dense(10, activation='softmax'))model.summary()self.model = modelif __name__ == "__main__":CNN()

输出的网络信息如下:

1 、卷积层参数个数计算方法:(卷积核高 * 卷积核宽 * 通道数 + 1) * 卷积核个数

2 、当前全连接层参数个数计算方法: (上一层神经元个数 + 1) * 当前层神经元个数

以上的1代表偏置,因为每个神经元都有一个偏置

卷积层1: 320 = (3 * 3 * 1 +1) * 32

卷积层2: 18496 = (3 * 3 * 32 +1) * 64

卷积层3: 73856 = (3 * 3 * 64 +1) * 128

全连接层1: 8256 = (128 + 1) * 64

全连接层2: 650 = (64 + 1) * 10

2、各层参数和链接数计算

举例:

      下面以最经典的LeNet-5例子来逐层分析各层的参数及连接个数。   

图2

C1层(卷积层):是一个卷积层,由6个特征图Feature Map构成。特征图中每个神经元与5*5的邻域(滤波器)相连。

1. 特征图大小:特征图的大小28*28,这样能防止输入的连接掉到边界之外(32-5+1=28)。

feature map边长大小的具体计算参见:http://blog.csdn.net/qq_15192373/article/details/78393520

2. 参数个数:C1有156个可训练参数 (每个滤波器5*5=25个unit参数和一个bias参数,一共6个滤波器,共(5*5+1)*6=156个参数)

3. 链接个数/FLOPS个数::(5*5+1)*6 *(28*28)=122,304个。左边是滤波器在输入层滑过的神经元个数,右边是C1层每个feature map的神经元个数,左右对应关系是1对28*28,相乘即为连接数。(每个链接对应1次计算,由wa+b可知,每个参数参与1次计算,所以1个单位的偏置b也算进去)

----------------------------------------

S2层(下采样层):是一个下采样层,有6个14*14的特征图。特征图中的每个单元与C1中相对应特征图的2*2邻域相连接。

1. 特征图大小:每个单元的2*2感受野并不重叠,因此S2中每个特征图的大小是C1中特征图大小的1/4(行和列各1/2)

2. 参数个数:S2层有 12个 (6*(1+1)=12) 可训练参数。S2层 每个滤波器路过的4个邻域 的4个输入相加,乘以1个可训练参数w,再加上1个可训练偏置b(即一个滤波器对应两个参数)。(对于子采样层,每一个特征映射图的的可变参数需要考虑你使用的采样方式而定,如文中的采样方式,每一个特征映射图的可变参数数量为2个,有的采样方式不需要参数)

3. 链接个数/FLOPS个数:5880个连接,( (2*2+1)*6 *14*14=5880) 。左边是滤波器在C1层滑过的神经元个数,右边是S2层每个feature map的神经元个数,相乘即为连接数。

----------------------------------------

C3层(卷积层):是一个卷积层,它同样通过5x5的卷积核去卷积层S2,然后得到的特征map就只有10x10个神经元,但是它有16种不同的卷积核,所以就存在16个特征map了。

1. 特征图大小:C3中每个特征图由S2中所有6个或者几个特征map组合(几个滤波器计算的神经元的值 相加 合并成一个神经元)而成。

为什么不把S2中的每个特征图连接到每个C3的特征图呢?原因有2点。

第1,不完全的连接机制将连接的数量保持在合理的范围内。

第2,也是最重要的,其破坏了网络的对称性。由于不同的特征图有不同的输入,所以迫使他们抽取不同的特征(希望是互补的)。(14-5+1=10)

2. 参数个数:例如,存在的一个方式是:

C3的前6个特征图:相当于需要6组滤波器,每组以S2中 3个相邻 特征图子集 为输入,共享一个偏置。(C3每个特征图 由 S2中3个特征图分别用不同滤波器 再加和得到)

C3的接下来6个特征图:相当于需要6组滤波器,每组以S2中 4个相邻 特征图子集 为输入,共享一个偏置。(1对4)

C3的接下来3个特征图:相当于需要3组滤波器,每组以S2中 4个不相邻 特征图子集 为输入,共享一个偏置。(1对4)

C3的最后1个特征图:相当于需要1组滤波器,每组将S2中所有 特征图 为输入,共享一个偏置。(1对6)

    这样C3层有1516个可训练参数。计算:6*(3*25+1)+6*(4*25+1)+3*(4*25+1)+(25*6+1)=1516。此处,C3个特征图由 S2中n个卷积结果合并,然后共享1个b,组合计算得到。

3. 链接个数/FLOPS个数:1516* 10*10=151600个连接。左边是滤波器滑过的S2层神经元个数,右边是C3层特征图大小。

------------------------------------------

S4层(下采样层):是一个下采样层,由16个5*5大小的特征图构成。特征图中的每个单元与C3中相应特征图的2*2邻域相连接,跟C1和S2之间的连接一样。

1. 特征图大小:5*5大小。每个单元的2*2感受野并不重叠,因此S2中每个特征图的大小是C1中特征图大小的1/4(行和列各1/2)

2. 参数个数:S4层有32个可训练参数。(每个特征图1个因子w和1个偏置b,16*(1+1)=32)

3. 链接个数/FLOPS个数:16* (2*2+1) *5*5=2000个连接。左边是滤波器在C3层滑过的神经元个数,右边是S4层神经元个数,相乘即为连接数。

--------------------------------------------

C5层(卷积层或第一个全连接层):是一个卷积层,有120个特征图(或者说神经元)。每个单元与S4层的全部16个单元的5*5邻域(与S4层特征图一样大)相连。(120组滤波器, 每组16个滤波器,分别与 S4层16个特征图 进行卷积, 每组得到C5层的一个神经元/特征图)

1. 特征图大小:由于S4层特征图的大小也为5*5(同滤波器一样),故C5特征图的大小为1*1。(5-5+1=1), 这构成了S4和C5之间的全连接。之所以仍将C5标示为卷积层而非全相联层,是因为如果LeNet-5的输入变大,而其他的保持不变,那么此时特征图的维数就会比1*1大。

2. 参数个数:120* (16*5*5+1)=48120个。滤波器个数120*16个,所以w有120*16*5*5个,同组16个滤波器共用一个b,所以有120个b。

3. 链接个数/FLOPS个数:48120*1*1, 左边是滤波器滑过的神经元个数,右边是C5层特征图大小(其实现在已经变成了单个神经元,大小1*1),相乘即为连接数,此处也即FLOPS个数。

--------------------------------------------

F6层(全连接层):虽然是全连接层,得到F6层每个神经元 由 每组120个1*1的滤波器对C5层卷积,一共84组滤波器,得到84个神经元。

1. 特征图大小:有84个单元(之所以选这个数字的原因来自于输出层的设计),与C5层全相连。

2. 参数个数:有 84* (120*(1*1)+1)=10164 个可训练参数。如同经典神经网络,F6层计算输入向量(120)和权重向量(1*1)之间的点积,再加上一个偏置(+1)。然后将其传递给sigmoid函数产生单元i的一个状态。

3. 链接个数/FLOPS个数:10164* 1*1,左边是滤波器在C5层滑过的神经元个数,右边是F6层特征图大小。1个链接对应1次计算。

--------------------------------------------

输出层:由欧式径向基函数(Euclidean Radial Basis Function)单元组成,每类一个单元,每个有84个输入。

--------------------------------------------

3、卷积和下采样说明

图3 卷积和子采样过程

卷积过程包括:用一个可训练的滤波器fx去卷积一个输入的图像(第一阶段是输入的图像,后面的阶段就是卷积特征map了),然后加一个偏置bx,得到卷积层Cx。

子采样过程包括:每邻域四个像素求和变为一个像素,然后通过标量Wx+1加权,再增加偏置bx+1,然后通过一个sigmoid激活函数,产生一个大概缩小四倍的特征映射图Sx+1。


推荐阅读
  • 本文提供了PyTorch框架中常用的预训练模型的下载链接及详细使用指南,涵盖ResNet、Inception、DenseNet、AlexNet、VGGNet等六大分类模型。每种模型的预训练参数均经过精心调优,适用于多种计算机视觉任务。文章不仅介绍了模型的下载方式,还详细说明了如何在实际项目中高效地加载和使用这些模型,为开发者提供全面的技术支持。 ... [详细]
  • 【图像分类实战】利用DenseNet在PyTorch中实现秃头识别
    本文详细介绍了如何使用DenseNet模型在PyTorch框架下实现秃头识别。首先,文章概述了项目所需的库和全局参数设置。接着,对图像进行预处理并读取数据集。随后,构建并配置DenseNet模型,设置训练和验证流程。最后,通过测试阶段验证模型性能,并提供了完整的代码实现。本文不仅涵盖了技术细节,还提供了实用的操作指南,适合初学者和有经验的研究人员参考。 ... [详细]
  • 通过使用CIFAR-10数据集,本文详细介绍了如何快速掌握Mixup数据增强技术,并展示了该方法在图像分类任务中的显著效果。实验结果表明,Mixup能够有效提高模型的泛化能力和分类精度,为图像识别领域的研究提供了有价值的参考。 ... [详细]
  • 基于OpenCV的图像拼接技术实践与示例代码解析
    图像拼接技术在全景摄影中具有广泛应用,如手机全景拍摄功能,通过将多张照片根据其关联信息合成为一张完整图像。本文详细探讨了使用Python和OpenCV库实现图像拼接的具体方法,并提供了示例代码解析,帮助读者深入理解该技术的实现过程。 ... [详细]
  • 在之前的系列中,我们探讨了多个关于AI学习的基础知识点。本篇将重点深入解析NumPy这一关键库的核心功能及其广泛应用。即使您对之前提到的例子印象模糊,也无妨,我们将从头开始,详细分析其代码结构与实现逻辑,如`import numpy as np`等基础语句,帮助您全面理解NumPy在数据处理与科学计算中的重要作用。 ... [详细]
  • 表面缺陷检测数据集综述及GitHub开源项目推荐
    本文综述了表面缺陷检测领域的数据集,并推荐了多个GitHub上的开源项目。通过对现有文献和数据集的系统整理,为研究人员提供了全面的资源参考,有助于推动该领域的发展和技术进步。 ... [详细]
  • 如何在Linux系统中部署TensorFlow的详细指南
    本文详细介绍了在Linux系统中部署TensorFlow的过程。作者基于北京大学曹建教授的MOOC课程进行学习,但由于课程内容较旧,环境配置方面遇到了不少挑战。经过多次尝试,最终成功解决了这些问题,并总结了一套详细的安装指南,帮助初学者快速上手TensorFlow。 ... [详细]
  • IOS Run loop详解
    为什么80%的码农都做不了架构师?转自http:blog.csdn.netztp800201articledetails9240913感谢作者分享Objecti ... [详细]
  • 零拷贝技术是提高I/O性能的重要手段,常用于Java NIO、Netty、Kafka等框架中。本文将详细解析零拷贝技术的原理及其应用。 ... [详细]
  • 在Windows命令行中,通过Conda工具可以高效地管理和操作虚拟环境。具体步骤包括:1. 列出现有虚拟环境:`conda env list`;2. 创建新虚拟环境:`conda create --name 环境名`;3. 删除虚拟环境:`conda env remove --name 环境名`。这些命令不仅简化了环境管理流程,还提高了开发效率。此外,Conda还支持环境文件导出和导入,方便在不同机器间迁移配置。 ... [详细]
  • 在第七天的深度学习课程中,我们将重点探讨DGL框架的高级应用,特别是在官方文档指导下进行数据集的下载与预处理。通过详细的步骤说明和实用技巧,帮助读者高效地构建和优化图神经网络的数据管道。此外,我们还将介绍如何利用DGL提供的模块化工具,实现数据的快速加载和预处理,以提升模型训练的效率和准确性。 ... [详细]
  • 本文详细介绍了在Windows操作系统上使用Python 3.8.5编译支持CUDA 11和cuDNN 8.0.2的TensorFlow 2.3的步骤。文章不仅提供了详细的编译指南,还分享了编译后的文件下载链接,方便用户快速获取所需资源。此外,文中还涵盖了常见的编译问题及其解决方案,确保用户能够顺利进行编译和安装。 ... [详细]
  • 利用TensorFlow.js在网页浏览器中实现高效的人脸识别JavaScript接口
    作者|VincentMühle编译|姗姗出品|人工智能头条(公众号ID:AI_Thinker)【导读】随着深度学习方法的应用,浏览器调用人脸识别技术已经得到了更广泛的应用与提升。在 ... [详细]
  • 基于TensorFlow的鸢尾花数据集神经网络模型深度解析
    基于TensorFlow的鸢尾花数据集神经网络模型深度解析 ... [详细]
  • 之前写过TensorFlowObjectDetectionAPI的部署方法,如何用样本标定工具标定自己的样本数据,以及用tensorflowkereas版本mask-rcnn进行训 ... [详细]
author-avatar
平凡淘你
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有