热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

MobileNetV1网络结构的原理与Tensorflow2.0实现

文章目录MobileNet网络结构代码实现用函数实现用类实现MobileNet网络结构介绍MobileNet之前,我们需要先了解一下它的重要组件——深度级可分离卷积

文章目录

  • MobileNet 网络结构
  • 代码实现
    • 用函数实现
    • 用类实现


MobileNet 网络结构

介绍 MobileNet 之前,我们需要先了解一下它的重要组件——深度级可分离卷积(Depthwise separable convolution)网络,这种网络可以被进一步分解成两个部分:对输入的每个通道使用单通道卷积核进行卷积(depthwise convolution)、使用 1x1 卷积核将输入通道数转变成输出通道数(pointwise convolution)。举例如下图所示:
在这里插入图片描述
在第一部分中,深度级卷积和普通卷积不同,对于标准卷积其卷积核是用在所有的输入通道上的,而深度级可分离卷积针对每个输入通道采用不同的卷积核,即一个卷积核对应一个输入通道,所以我们说这个操作是发生在深度级上的。

在第二部分中,pointwise convolution 其实就和普通卷积操作相同,只不过使用的卷积核尺寸是 1x1 的。

深度级可分离卷积和一个普通卷积的整体效果差不多,但前者会大大减少计算量和模型参数量,具体可参考卷积、可分离卷积的参数量与计算量的对比。

在 MobileNet 网络结构中,有 13 个深度级可分离卷积网络被使用。

代码实现

用函数实现

import tensorflow as tfdef conv_block(inputs, filters, kernel_size = (3,3), strides=(1,1)):x = tf.keras.layers.Conv2D(filters=filters, kernel_size=kernel_size, strides=strides, padding='SAME', use_bias=False)(inputs)x = tf.keras.layers.BatchNormalization()(x)out = tf.keras.layers.Activation('relu')(x)return outdef depthwise_conv_block(inputs,pointwise_conv_filters,strides=(1,1)):x = tf.keras.layers.DepthwiseConv2D(kernel_size=(3,3), strides=strides, padding='SAME',use_bias=False)(inputs)x = tf.keras.layers.BatchNormalization()(x)x = tf.keras.layers.Activation('relu')(x)x = tf.keras.layers.Conv2D(filters=pointwise_conv_filters, kernel_size=(1,1), padding='SAME', use_bias=False)(x)x = tf.keras.layers.BatchNormalization()(x)out = tf.keras.layers.Activation('relu')(x)return outdef mobilenet_v1(inputs,classes):# [32, 32, 3] => [16, 16, 32]x = conv_block(inputs, 32, strides=(2,2))# [16, 16, 32] => [16, 16, 64]x = depthwise_conv_block(x, 64)# [16, 16, 64] => [8, 8, 128]x = depthwise_conv_block(x, 128, strides=(2,2))# [8, 8, 128] => [8, 8, 128]x = depthwise_conv_block(x, 128)# [8, 8, 128] => [4, 4, 256]x = depthwise_conv_block(x, 256, strides=(2, 2))# [4, 4, 256] => [4, 4, 256]x = depthwise_conv_block(x, 256)# [4, 4, 256] => [2, 2, 512]x = depthwise_conv_block(x, 512, strides=(2, 2))# [2, 2, 512] => [2, 2, 512]x = depthwise_conv_block(x, 512)# [2, 2, 512] => [2, 2, 512]x = depthwise_conv_block(x, 512)# [2, 2, 512] => [2, 2, 512]x = depthwise_conv_block(x, 512)# [2, 2, 512] => [2, 2, 512]x = depthwise_conv_block(x, 512)# [2, 2, 512] => [2, 2, 512]x = depthwise_conv_block(x, 512)# [2, 2, 512] => [1, 1, 1024]x = depthwise_conv_block(x, 1024, strides=(2,2))# [1, 1, 1024] => [1, 1, 1024]x = depthwise_conv_block(x, 1024)# [1, 1, 1024] => (1024,)x = tf.keras.layers.GlobalAveragePooling2D()(x)# (1024,) => (classes,)pred = tf.keras.layers.Dense(classes, activation='softmax')(x)return predinputs = np.zeros((10, 32, 32, 3), dtype=np.float32)
classes = 10
output = mobilenet_v1(inputs, classes)output.shape

TensorShape([10, 10])

用类实现

import tensorflow as tfclass conv_block(tf.keras.Model):def __init__(self, filters, kernel_size = (3,3), strides=(1,1)):super().__init__()self.listLayers = []self.listLayers.append(tf.keras.layers.Conv2D(filters=filters, kernel_size=kernel_size, strides=strides, padding='SAME', use_bias=False))self.listLayers.append(tf.keras.layers.BatchNormalization())self.listLayers.append(tf.keras.layers.Activation('relu'))def call(self, x):for layer in self.listLayers.layers:x = layer(x)return xclass depthwise_conv_block(tf.keras.Model):def __init__(self, pointwise_conv_filters, strides=(1,1)):super().__init__()self.listLayers = []self.listLayers.append(tf.keras.layers.DepthwiseConv2D(kernel_size=(3,3), strides=strides, padding='SAME',use_bias=False))self.listLayers.append(tf.keras.layers.BatchNormalization())self.listLayers.append(tf.keras.layers.Activation('relu'))self.listLayers.append(tf.keras.layers.Conv2D(filters=pointwise_conv_filters, kernel_size=(1,1), padding='SAME', use_bias=False))self.listLayers.append(tf.keras.layers.BatchNormalization())self.listLayers.append(tf.keras.layers.Activation('relu'))def call(self, x):for layer in self.listLayers.layers:x = layer(x)return xclass mobilenet_v1(tf.keras.Model):def __init__(self, classes):super().__init__()self.listLayers = []self.listLayers.append(conv_block(32, strides=(2,2)))self.listLayers.append(depthwise_conv_block(64))self.listLayers.append(depthwise_conv_block(128, strides=(2,2)))self.listLayers.append(depthwise_conv_block(128))self.listLayers.append(depthwise_conv_block(256, strides=(2, 2)))self.listLayers.append(depthwise_conv_block(256))self.listLayers.append(depthwise_conv_block(512, strides=(2, 2)))self.listLayers.append(depthwise_conv_block(512))self.listLayers.append(depthwise_conv_block(512))self.listLayers.append(depthwise_conv_block(512))self.listLayers.append(depthwise_conv_block(512))self.listLayers.append(depthwise_conv_block(512))self.listLayers.append(depthwise_conv_block(1024, strides=(2,2)))self.listLayers.append(depthwise_conv_block(1024))self.listLayers.append(tf.keras.layers.GlobalAveragePooling2D())self.listLayers.append(tf.keras.layers.Dense(classes, activation='softmax'))def call(self, x):for layer in self.listLayers.layers:x = layer(x)return xinputs = np.zeros((10, 32, 32, 3), dtype=np.float32)
model = mobilenet_v1(10)
model(inputs).shape

TensorShape([10, 10])


推荐阅读
  • 也就是|小窗_卷积的特征提取与参数计算
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了卷积的特征提取与参数计算相关的知识,希望对你有一定的参考价值。Dense和Conv2D根本区别在于,Den ... [详细]
  • 个人学习使用:谨慎参考1Client类importcom.thoughtworks.gauge.Step;importcom.thoughtworks.gauge.T ... [详细]
  • 本文讨论了一个关于cuowu类的问题,作者在使用cuowu类时遇到了错误提示和使用AdjustmentListener的问题。文章提供了16个解决方案,并给出了两个可能导致错误的原因。 ... [详细]
  • [大整数乘法] java代码实现
    本文介绍了使用java代码实现大整数乘法的过程,同时也涉及到大整数加法和大整数减法的计算方法。通过分治算法来提高计算效率,并对算法的时间复杂度进行了研究。详细代码实现请参考文章链接。 ... [详细]
  • 前景:当UI一个查询条件为多项选择,或录入多个条件的时候,比如查询所有名称里面包含以下动态条件,需要模糊查询里面每一项时比如是这样一个数组条件:newstring[]{兴业银行, ... [详细]
  • 微软头条实习生分享深度学习自学指南
    本文介绍了一位微软头条实习生自学深度学习的经验分享,包括学习资源推荐、重要基础知识的学习要点等。作者强调了学好Python和数学基础的重要性,并提供了一些建议。 ... [详细]
  • Java太阳系小游戏分析和源码详解
    本文介绍了一个基于Java的太阳系小游戏的分析和源码详解。通过对面向对象的知识的学习和实践,作者实现了太阳系各行星绕太阳转的效果。文章详细介绍了游戏的设计思路和源码结构,包括工具类、常量、图片加载、面板等。通过这个小游戏的制作,读者可以巩固和应用所学的知识,如类的继承、方法的重载与重写、多态和封装等。 ... [详细]
  • 阿里Treebased Deep Match(TDM) 学习笔记及技术发展回顾
    本文介绍了阿里Treebased Deep Match(TDM)的学习笔记,同时回顾了工业界技术发展的几代演进。从基于统计的启发式规则方法到基于内积模型的向量检索方法,再到引入复杂深度学习模型的下一代匹配技术。文章详细解释了基于统计的启发式规则方法和基于内积模型的向量检索方法的原理和应用,并介绍了TDM的背景和优势。最后,文章提到了向量距离和基于向量聚类的索引结构对于加速匹配效率的作用。本文对于理解TDM的学习过程和了解匹配技术的发展具有重要意义。 ... [详细]
  • 向QTextEdit拖放文件的方法及实现步骤
    本文介绍了在使用QTextEdit时如何实现拖放文件的功能,包括相关的方法和实现步骤。通过重写dragEnterEvent和dropEvent函数,并结合QMimeData和QUrl等类,可以轻松实现向QTextEdit拖放文件的功能。详细的代码实现和说明可以参考本文提供的示例代码。 ... [详细]
  • Linux重启网络命令实例及关机和重启示例教程
    本文介绍了Linux系统中重启网络命令的实例,以及使用不同方式关机和重启系统的示例教程。包括使用图形界面和控制台访问系统的方法,以及使用shutdown命令进行系统关机和重启的句法和用法。 ... [详细]
  • Java容器中的compareto方法排序原理解析
    本文从源码解析Java容器中的compareto方法的排序原理,讲解了在使用数组存储数据时的限制以及存储效率的问题。同时提到了Redis的五大数据结构和list、set等知识点,回忆了作者大学时代的Java学习经历。文章以作者做的思维导图作为目录,展示了整个讲解过程。 ... [详细]
  • importjava.util.ArrayList;publicclassPageIndex{privateintpageSize;每页要显示的行privateintpageNum ... [详细]
  • 本文介绍了UVALive6575题目Odd and Even Zeroes的解法,使用了数位dp和找规律的方法。阶乘的定义和性质被介绍,并给出了一些例子。其中,部分阶乘的尾零个数为奇数,部分为偶数。 ... [详细]
  • 本文介绍了南邮ctf-web的writeup,包括签到题和md5 collision。在CTF比赛和渗透测试中,可以通过查看源代码、代码注释、页面隐藏元素、超链接和HTTP响应头部来寻找flag或提示信息。利用PHP弱类型,可以发现md5('QNKCDZO')='0e830400451993494058024219903391'和md5('240610708')='0e462097431906509019562988736854'。 ... [详细]
  • 第四章高阶函数(参数传递、高阶函数、lambda表达式)(python进阶)的讲解和应用
    本文主要讲解了第四章高阶函数(参数传递、高阶函数、lambda表达式)的相关知识,包括函数参数传递机制和赋值机制、引用传递的概念和应用、默认参数的定义和使用等内容。同时介绍了高阶函数和lambda表达式的概念,并给出了一些实例代码进行演示。对于想要进一步提升python编程能力的读者来说,本文将是一个不错的学习资料。 ... [详细]
author-avatar
会说话的鱼911
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有