热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

【论文阅读笔记】Ristretto:HardwareOrientedApproximationofConvolutionalNeuralNetworks

概念MAC:multiplication-accumulationoperations2.ConvolutionalNeuralNetworks2.2.1Norma

概念
MAC:multiplication-accumulation operations



2. Convolutional Neural Networks

2.2.1 Normalization layers
  正则化层(LRN、BN) 需要计算出非常多的中间数(不是参数)。以AlexNet为例,LRN层的中间数可以达到214 ,比任意层的中间数都有多。因为这个原因,这篇文章假设LRN和BN层用float point计算,而我们致力于其它层的近似。【本文只集中于近似fc层和conv层】

2.4 Computational Complexity and Memory Requirements

  深度CNN的复杂性可以分为两部分:


  1. 卷积层是计算密集型层,包含超过90%的算术运算;
  2. 全连接层是资源密集处,包含超过9090%90的参数。全连接层是资源密集处,包含超过9090%90的参数。

2.6 Neural Networks With Limited Numerical Precision

  Most deep learning frameworks use 32-bit or 64-bit floating point for CNN training and inference.(This paper is to describe the process of quantizing a full precision network to limited precision numbers).

2.6.1 Quantization



在这里插入图片描述

  如上图所示,为了简化在硬件上的模拟过程,我们的框架同时量化layer inputs和weights,加法计算使用32-bits的floating point进行计算。加法器在大小和功率上都要比乘法器小。



在这里插入图片描述

2.6.2 Rounding Schemes

Round nearest even

round(x)&#61;{⌊x⌋,if⌊x⌋≤x≤x&#43;ϵ2⌊x⌋&#43;ϵ,if⌊x⌋&#43;ϵ2round(x)&#61;{x,x&#43;ϵ,if xxx&#43;2ϵif x&#43;2ϵ<xx&#43;ϵ

  Denoting ϵ\epsilonϵ as the quantization step size and ⌊x⌋\lfloor x \rfloorx as the largest quantization value less or equal to x.
  As round-nearest-even is deterministic, we chose this rounding scheme for inference

Round stochastic

round(x)&#61;{⌊x⌋,w.p.1−x−⌊x⌋ϵ⌊x⌋&#43;ϵ,w.p.x−⌊x⌋ϵround(x) &#61; \begin{cases} \lfloor x \rfloor, & w.p. \ 1-\frac{x-\lfloor x \rfloor}{\epsilon} \\ \lfloor x \rfloor &#43; \epsilon , & w.p. \ \frac{x-\lfloor x \rfloor}{\epsilon} \end{cases}round(x)&#61;{x,x&#43;ϵ,w.p. 1ϵxxw.p. ϵxx
  随机舍入给量化过程增加了随机性&#xff0c;在训练过程可以有一个平均的影响&#xff08;即平均结果一般为0&#xff09;。
  We chose to use this rounding scheme when quantizing network parameters during fine-tuning.

2.6.3 Optimization in Discrete Parameter Space

  在传统的64-bit浮点数训练上&#xff0c;优化问题是在平滑的误差表面上进行。而对于量化网络&#xff0c;误差表面就变成离散的了。
  有如下两种方式训练量化网络&#xff1a;


  1. 从头开始训练量化权重&#xff08;即没有利用上pre-trained model的权重&#xff09;
  2. 在连续领域训练网络&#xff0c;然后量化参数&#xff0c;最后再微调到离散量化空间。

  本文更新权重的方式是第二种&#xff1a;: full precision shadow weights. Small weight updates ∆w are applied to the full precision weights w, whereas the discrete weights w1 are sampled from the full precision weights. &#xff08;在9.3有更多的fine-tune细节而&#xff09;



3. Related Work

3.1 Network Approximation

3.1.1 Fixed Point Approximation

  方法提出的出发点&#xff1a;fixed-point计算比floating point计算需要更少的资源&#xff0c;更快。
  所以有一些从fixed-point上工作的方法。比如&#xff0c;在CIFAR-10上工作的16-bit网络&#xff1b;与上一个相同网络架构的7-bit网络&#xff1b;二元/三元网络等。
但这些方法只证明了fixed-point方案能在small Networks上工作良好&#xff0c;但在大网络上效果有限&#xff0c;比如AlexNet。

3.1.2 Network Pruning and Shared Weights

  方法提出的出发点&#xff1a;在数据密集型应用的能量耗费上&#xff0c;片外内存&#xff08;Off-chip&#xff09;的访问占据了很大一部分。
  所以&#xff0c;有一个很重要步骤就是压缩网络的参数数量。Han et al.&#xff08;2016b&#xff09;解决了这个问题&#xff0c;其方案分为三个步骤&#xff1a;


  1. 移除网络中不重要的连接&#xff08;通过阈值判断&#xff09;。移除后的稀疏网络经过re-trained后重复进行移除连接&#xff1b;
  2. 将剩下来的权重进行聚类&#xff0c;从而共享参数 。这些共享的权重也经过re-train以发现optimal centroids&#xff1b;
  3. 采用零损失压缩方案(比如&#xff0c;Huffman Coding) 压缩最后的权重.


4. Fixed Point Approximation

4.2 Fixed Point Format

  fixed point number format&#xff1a;[IL.FL][IL.FL][IL.FL]&#xff0c;其中IL和FLIL和FLILFL分别表示整数长度和分数长度。即bitwidth&#61;IL&#43;FLbit _{width} &#61; IL &#43; FLbitwidth&#61;IL&#43;FL
  为了把 floating point 量化成 fixed point&#xff0c;本文使用round-nearest。使用二进制补码数来表示数字&#xff0c;所以最大的正数可以表示为&#xff1a;Xmax&#61;2IL−1−2−FLX_{max}&#61;2^{IL-1}-2^{-FL}Xmax&#61;2IL12FL

注意&#xff0c;以下的实验中&#xff0c;所有截断的数字都是用共享的固定点格式&#xff0c;即他们共享使用相同的整数和小数长度

4.3 Dynamic Range of Parameters and Layer Outputs

4.3.1 Dynamic Range in Small CNN
在这里插入图片描述
  如上图所示&#xff0c;平均而言&#xff0c;参数的大小是要小于layer output的。99%的训练好的网络的参数在 [20&#xff0c;210][2^0&#xff0c;2^{10}][20&#xff0c;210]&#xff1b;而对于全连接层&#xff0c;99%99\%99%的 layer outputs 在 [2−4&#xff0c;25][2^{-4}&#xff0c;2^5][24&#xff0c;25]
  为了把 layer outputs 和网络参数都量化到 8-bit 的 fixed point&#xff0c;有一部分的参数会饱和&#xff08;即丢失更多的精度&#xff0c;截断&#xff09;。作者在Q.4.4Q.4.4Q.4.4的格式下得到了最高的量化结果&#xff0c;这代表着&#xff0c;相对而言&#xff0c;大的layer output比小的参数要更重要&#xff08;因为这里 activation 和 weight 都固定到一个格式&#xff0c;其IL 和 FL都是固定的。对activation而言&#xff0c;需要更大的IL&#xff1b;对weight而言&#xff0c;需要更大的FL。这二个结果&#xff0c;代表了结果向IL偏向&#xff09;。

4.3.1 Dynamic Range in Large CNN
在这里插入图片描述
  如上图所示&#xff0c;像small networks一样&#xff0c;参数的大小是要小于layer output的&#xff0c;而且这两组数的平均值差距更大了。因为这个动态数值范围比 LeNet更大了&#xff0c;所以需要更多的 bit 来完成 fixed point representations。结果显示&#xff0c;效果最后的是 16-bit 的 fixed point&#xff0c;格式为 Q9.7。可以看出&#xff0c;有相当一部分的参数在这个格式下是饱和的&#xff0c;这意味着小数的Bit长度不足。而只有很少的 layer output&#xff08;0.46%0.46\%0.46%的卷积层output&#xff09;是比这个表示范围大的&#xff0c;而有21.23%21.23\%21.23%的参数是被截断到000的。
  这个图的分析结果&#xff0c;和LeNet一样&#xff0c;“大的 layer output 比小的参数更重要”。




5. Dynamic Fixed Point Approximation

  从上一章节可以看出&#xff0c;如果 weight 和 layer output使用相同的 fixed point格式&#xff0c;则其中一组数字就会饱和&#xff0c;从而损失精度。所以&#xff0c;本章节介绍了一种 dynamic fixed point&#xff0c;其可以进一步的减小参数size&#xff0c;同时保持高准确率。

5.1 Mixed Precision Fixed Point
在这里插入图片描述
  如上图所示&#xff0c;activation 和 weights 分别用 m-bits 和 n-bits表示&#xff0c;在进行了乘法运算后&#xff0c;经过树形加法运算。在每层加法运算进行的同时&#xff0c;用 &#43;1 bit 的空间来存储&#xff0c;以避免溢出。最后一层加法&#xff0c;用m&#43;n&#43;lg(x)m&#43;n&#43;lg(x)m&#43;n&#43;lg(x) bits存储&#xff0c;其中&#xff0c;x为乘法运算的个数。

5.2 Dynamic Fixed Point

  Dynamic Fixed Point是为了解决Fixed Point表达能力受限的问题&#xff0c;Dynamic Fixed Point固定的是bit-width&#xff0c;而FL由 value group决定&#xff0c;对于每一层的每一个type的数值&#xff0c;都有一个常数FL&#xff08;即其IL和FL是确定的&#xff09;。
  在Dynamic Fixed Point中&#xff0c;每个数字都可以表达为如下形式&#xff1a;(−1)s2−FL∑i&#61;0B−22ixi(-1)^{s}2^{-FL}\sum_{i&#61;0}^{B-2}2^ix_i(1)s2FLi&#61;0B22ixi

Choice of Number Format
  在每一层的每一个Type的数值而言&#xff0c;其Fixed Point的格式为&#xff1a;IL&#61;⌈lg2(max(x))&#43;1⌉IL&#61;\lceil lg_2(max(x))&#43;1\rceilIL&#61;lg2(max(x))&#43;1  即保证IL足够让所有的数都包括进来&#xff0c;而不向上饱和。
注意&#xff0c;这种计算 IL 的方法&#xff0c;适用于 layer parameters&#xff1b;对于 layer outputs&#xff0c;用这个公式 减去 1 来表达 IL。

5.3 Result
在这里插入图片描述

  可以看出&#xff0c;即使是已经压缩过的模型&#xff0c;如 SqueezeNet 都能在 ImageNet 上以 8-bit 达到很好的结果。




8. Comparison of Different Approximations

在这里插入图片描述
  上图是没有经过 fine-tune的结果。

  对于硬件加速器来说&#xff0c;Fixed Point Approximation 是耗时和耗能量最少的。但是&#xff0c;当bit变小时&#xff0c;Fixed Point也是表现最差的。&#xff08;会向上饱和&#xff09;
  对比minifloat和Fixed Point&#xff0c;Dynamic Fixed Point是三种近似方案中最好的。动态固定点使其能覆盖很大的动态范围&#xff08;动态固定点隐式存储&#xff1a;IL&#61;⌈lg2(max(x))&#43;1⌉IL&#61;\lceil lg_2(max(x))&#43;1\rceilIL&#61;lg2(max(x))&#43;1&#xff09;



9. Ristretto: An Approximation Framework for Deep CNNs

9.2 Quantization Flow

在这里插入图片描述
  Ristretto 将网络模型从 32-bit floating 量化到 fixed point&#xff0c;有如上图的五个阶段&#xff1a;


  1. 统计、分析Weight信息&#xff0c; 分配足够的bit给实数部分&#xff1b;(大的数比较重要)
  2. 前向传播成千上万的图片&#xff0c;统计、分析Activation信息&#xff0c;分配足够的bit给实数部分&#xff1b;
  3. 给每一种类型的array决定bit分配&#xff0c;用二分查找法寻找最优的bit&#xff1b;&#xff08;应该是分别对conv weight、fc weight、layer output分别决定一个bit分配&#xff0c;即所有的相同类型层共用一个格式&#xff09;
  4. 评估每种bit的分配带来的误差&#xff1b;&#xff08;在二分查找一个类型的最优bit时&#xff0c;其余两种类型保留floating point形式&#xff09;
  5. 找到每个部分的最优bit后&#xff0c;开始fine-tune

9.3 Fine-tuning

在这里插入图片描述

  Fine-Tuning步骤如上图所示&#xff1a;
  注意&#xff0c;activation在Fine-Tuning步骤不进行量化&#xff1b;


  1. 利用量化后的离散值 w′w&#x27;w 进行前向传播计算activation/output&#xff1b;
  2. 利用量化后的离散值 w′w&#x27;w 进行反向传播传播计算gradient&#xff1b;
  3. 将gradient应用在floating point的w上进行参数更新&#xff08;防止更新的范围 △w不足step-size&#xff09;

  在预测阶段&#xff0c;activation才进行量化。

  在微调阶段&#xff0c;为了充分利用per-trained的参数信息&#xff0c;使用的学习率比上一次全精度训练迭代低一个数量级。

9.5 Ristretto From a User Perspective

在这里插入图片描述


推荐阅读
  • CF:3D City Model(小思维)问题解析和代码实现
    本文通过解析CF:3D City Model问题,介绍了问题的背景和要求,并给出了相应的代码实现。该问题涉及到在一个矩形的网格上建造城市的情景,每个网格单元可以作为建筑的基础,建筑由多个立方体叠加而成。文章详细讲解了问题的解决思路,并给出了相应的代码实现供读者参考。 ... [详细]
  • 本文介绍了九度OnlineJudge中的1002题目“Grading”的解决方法。该题目要求设计一个公平的评分过程,将每个考题分配给3个独立的专家,如果他们的评分不一致,则需要请一位裁判做出最终决定。文章详细描述了评分规则,并给出了解决该问题的程序。 ... [详细]
  • 本文介绍了如何使用Express App提供静态文件,同时提到了一些不需要使用的文件,如package.json和/.ssh/known_hosts,并解释了为什么app.get('*')无法捕获所有请求以及为什么app.use(express.static(__dirname))可能会提供不需要的文件。 ... [详细]
  • 生成式对抗网络模型综述摘要生成式对抗网络模型(GAN)是基于深度学习的一种强大的生成模型,可以应用于计算机视觉、自然语言处理、半监督学习等重要领域。生成式对抗网络 ... [详细]
  • Spring源码解密之默认标签的解析方式分析
    本文分析了Spring源码解密中默认标签的解析方式。通过对命名空间的判断,区分默认命名空间和自定义命名空间,并采用不同的解析方式。其中,bean标签的解析最为复杂和重要。 ... [详细]
  • 本文讨论了在Windows 8上安装gvim中插件时出现的错误加载问题。作者将EasyMotion插件放在了正确的位置,但加载时却出现了错误。作者提供了下载链接和之前放置插件的位置,并列出了出现的错误信息。 ... [详细]
  • CSS3选择器的使用方法详解,提高Web开发效率和精准度
    本文详细介绍了CSS3新增的选择器方法,包括属性选择器的使用。通过CSS3选择器,可以提高Web开发的效率和精准度,使得查找元素更加方便和快捷。同时,本文还对属性选择器的各种用法进行了详细解释,并给出了相应的代码示例。通过学习本文,读者可以更好地掌握CSS3选择器的使用方法,提升自己的Web开发能力。 ... [详细]
  • Android系统移植与调试之如何修改Android设备状态条上音量加减键在横竖屏切换的时候的显示于隐藏
    本文介绍了如何修改Android设备状态条上音量加减键在横竖屏切换时的显示与隐藏。通过修改系统文件system_bar.xml实现了该功能,并分享了解决思路和经验。 ... [详细]
  • 本文介绍了机器学习手册中关于日期和时区操作的重要性以及其在实际应用中的作用。文章以一个故事为背景,描述了学童们面对老先生的教导时的反应,以及上官如在这个过程中的表现。同时,文章也提到了顾慎为对上官如的恨意以及他们之间的矛盾源于早年的结局。最后,文章强调了日期和时区操作在机器学习中的重要性,并指出了其在实际应用中的作用和意义。 ... [详细]
  • IjustinheritedsomewebpageswhichusesMooTools.IneverusedMooTools.NowIneedtoaddsomef ... [详细]
  • 【shell】网络处理:判断IP是否在网段、两个ip是否同网段、IP地址范围、网段包含关系
    本文介绍了使用shell脚本判断IP是否在同一网段、判断IP地址是否在某个范围内、计算IP地址范围、判断网段之间的包含关系的方法和原理。通过对IP和掩码进行与计算,可以判断两个IP是否在同一网段。同时,还提供了一段用于验证IP地址的正则表达式和判断特殊IP地址的方法。 ... [详细]
  • 本文介绍了一个适用于PHP应用快速接入TRX和TRC20数字资产的开发包,该开发包支持使用自有Tron区块链节点的应用场景,也支持基于Tron官方公共API服务的轻量级部署场景。提供的功能包括生成地址、验证地址、查询余额、交易转账、查询最新区块和查询交易信息等。详细信息可参考tron-php的Github地址:https://github.com/Fenguoz/tron-php。 ... [详细]
  • Android日历提醒软件开源项目分享及使用教程
    本文介绍了一款名为Android日历提醒软件的开源项目,作者分享了该项目的代码和使用教程,并提供了GitHub项目地址。文章详细介绍了该软件的主界面风格、日程信息的分类查看功能,以及添加日程提醒和查看详情的界面。同时,作者还提醒了读者在使用过程中可能遇到的Android6.0权限问题,并提供了解决方法。 ... [详细]
  • 本文整理了315道Python基础题目及答案,帮助读者检验学习成果。文章介绍了学习Python的途径、Python与其他编程语言的对比、解释型和编译型编程语言的简述、Python解释器的种类和特点、位和字节的关系、以及至少5个PEP8规范。对于想要检验自己学习成果的读者,这些题目将是一个不错的选择。请注意,答案在视频中,本文不提供答案。 ... [详细]
  • 本文介绍了贝叶斯垃圾邮件分类的机器学习代码,代码来源于https://www.cnblogs.com/huangyc/p/10327209.html,并对代码进行了简介。朴素贝叶斯分类器训练函数包括求p(Ci)和基于词汇表的p(w|Ci)。 ... [详细]
author-avatar
mjh3804260
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有