热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

模型汇总6堆叠自动编码器Stacked_AutoEncoderSAE

堆叠自动编编码器是深度学习领域常用的一个深度学习模型,由多个自动动编码器串联堆叠构成。堆叠多层自动编码器的目的是为了逐层提取输入数据的高阶特征,在此过程

堆叠自动编编码器是深度学习领域常用的一个深度学习模型,由多个自动动编码器串联堆叠构成。堆叠多层自动编码器的目的是为了逐层提取输入数据的高阶特征,在此过程中逐层降低输入数据的维度,将一个复杂的输入数据转化成了一个系列简单的高阶的特征,然后再把这些高阶特征输入一个分类器或者聚类器中进行分类或聚类。

1. 自动编码器模型及分类

自动编码器(Autoencoders,AE)是一种前馈无返回的神经网络,有一个输入层,一个隐含层,一个输出层,典型的自动编码器结构如图1所示,在输入层输入X,同时在输出层得到相应的输出Z,层与层之间都采用S型激活函数进行映射。


 

1 典型自动编码器结构图

输入层到隐含层的映射关系可以看作是一个编码过程,通过映射函数f把输出向量x映射到隐含层输出y。从隐含层到输出层的过程相当于一个解码过程,把隐含层输出y映射通过映射函数g回去重构向量z对于每一个输入样本x(i)而言,经过自动编码器之后都会转化为一个对应的输出向量z(i)=g[f(x(i))]。当自动编码器训练完成之后,输入X与输出Z完全相同,则对应的隐含层的输出可以看作是输入X的一种抽象表达,因此它可以用于提取输入数据的特征。此外,因为它的隐含层节点数少于输入节点数,因此自动编码器也可以用于降维和数据压缩。网络参数的训练方面,自动编码器采用反向传播法来进行训练,但自动编码器需要大量的训练样本,随着网络结构越变越复杂,网络计算量也随之增大。

对自动编码器结构进行改进得到其他类型的自动编码器,比较典型的是稀疏自动编码器降噪自动编码器。降噪自动编码器(Denoising Autoencoder,DAE)是对输入数据进行部分摧毁,然后通过训练自动编码器模型,重构出原始输入数据,以提高自动编码器的鲁棒性。对输入数据进行摧毁的过程其实类似于对数据加入噪声。稀疏自动编码器则是对自动编码器加入一个正则化项,约束隐含层神经元节点大部分输出0,少部分输出非0。稀疏编码器大大减小了需要训练的参数的数目,降低了训练的难度,同时克服了自动编码器容易陷入局部及小值和存在过拟合的问题。降噪编码器采用有噪声的输入数据来训练网络参数,提高了自动编码器的泛化能力。

2. SAD堆叠过程

堆叠自动编码器方法与DBN相同,具体过程描述如下:(1)给定初始输入,采用无监督方式训练第一层自动编码器,减小重构误差达到设定值。(2)把第一个自动编码器隐含层的输出作为第二个自动编码器的输入,采用以上同样的方法训练自动编码器。(3)重复第二步直到初始化完成所有自动编码器。(4)把最后一个堆叠自动编码器隐含层的输出作为分类器的输入,然后采用有监督的方法训练分类器的参数。图2给出了含三层AD的堆叠自动编码器的生成过程。

 

2 堆叠三层自动编码器生成过程

参考文献:

[1]X. X. Luo, L. Wan, A novel efficient method for training sparse auto-encoders[J]. Proc. of the 6th International Congress on Image and Signal Processing, 2013: 1019-1023.

[2]J. Deng, Z. X. Zhang, M. Erik. Sparse auto-encoder based feature transfer learning for speech emotion recognition[J]. Proc. of Humaine Association Conference on Affective Computing and Intelligent Interaction, 2013:511-516.

[3]J. Gehring, Y. J. Miao, F. Metze. Extracting deep bottleneck features using stacked auto-encoders[J]. Proc. of the 26th IEEE International Conference on Acoustics, Speech and Signal Processing, 2013: 3377-3381.

[4]Y. L. Ma, P. Zhang, Y. N. Gao, Parallel auto-encoder for efficient outlier detection[J]. Proceeding of IEEE International Conference on Big Data, 2013: 15-17.

[5]T. Amaral, L. M. Silva, L. A. Alexande. Using different cost functions to train stacked auto-encoders[J]. Proc. Of the 12th Mexican International Conference on Artificial Intelligence, 2013: 114-120.

 更多深度学习在NLP方面应用的经典论文、实践经验和最新消息,欢迎关注微信公众号“深度学习与NLPDeepLearning_NLP”或扫描二维码添加关注。



推荐阅读
  • 生成式对抗网络模型综述摘要生成式对抗网络模型(GAN)是基于深度学习的一种强大的生成模型,可以应用于计算机视觉、自然语言处理、半监督学习等重要领域。生成式对抗网络 ... [详细]
  • 统一知识图谱学习和建议:更好地理解用户偏好
    本文介绍了一种将知识图谱纳入推荐系统的方法,以提高推荐的准确性和可解释性。与现有方法不同的是,本方法考虑了知识图谱的不完整性,并在知识图谱中传输关系信息,以更好地理解用户的偏好。通过大量实验,验证了本方法在推荐任务和知识图谱完成任务上的优势。 ... [详细]
  • 2018年人工智能大数据的爆发,学Java还是Python?
    本文介绍了2018年人工智能大数据的爆发以及学习Java和Python的相关知识。在人工智能和大数据时代,Java和Python这两门编程语言都很优秀且火爆。选择学习哪门语言要根据个人兴趣爱好来决定。Python是一门拥有简洁语法的高级编程语言,容易上手。其特色之一是强制使用空白符作为语句缩进,使得新手可以快速上手。目前,Python在人工智能领域有着广泛的应用。如果对Java、Python或大数据感兴趣,欢迎加入qq群458345782。 ... [详细]
  • YOLOv7基于自己的数据集从零构建模型完整训练、推理计算超详细教程
    本文介绍了关于人工智能、神经网络和深度学习的知识点,并提供了YOLOv7基于自己的数据集从零构建模型完整训练、推理计算的详细教程。文章还提到了郑州最低生活保障的话题。对于从事目标检测任务的人来说,YOLO是一个熟悉的模型。文章还提到了yolov4和yolov6的相关内容,以及选择模型的优化思路。 ... [详细]
  • 本文介绍了九度OnlineJudge中的1002题目“Grading”的解决方法。该题目要求设计一个公平的评分过程,将每个考题分配给3个独立的专家,如果他们的评分不一致,则需要请一位裁判做出最终决定。文章详细描述了评分规则,并给出了解决该问题的程序。 ... [详细]
  • 浏览器中的异常检测算法及其在深度学习中的应用
    本文介绍了在浏览器中进行异常检测的算法,包括统计学方法和机器学习方法,并探讨了异常检测在深度学习中的应用。异常检测在金融领域的信用卡欺诈、企业安全领域的非法入侵、IT运维中的设备维护时间点预测等方面具有广泛的应用。通过使用TensorFlow.js进行异常检测,可以实现对单变量和多变量异常的检测。统计学方法通过估计数据的分布概率来计算数据点的异常概率,而机器学习方法则通过训练数据来建立异常检测模型。 ... [详细]
  • 深度学习中的Vision Transformer (ViT)详解
    本文详细介绍了深度学习中的Vision Transformer (ViT)方法。首先介绍了相关工作和ViT的基本原理,包括图像块嵌入、可学习的嵌入、位置嵌入和Transformer编码器等。接着讨论了ViT的张量维度变化、归纳偏置与混合架构、微调及更高分辨率等方面。最后给出了实验结果和相关代码的链接。本文的研究表明,对于CV任务,直接应用纯Transformer架构于图像块序列是可行的,无需依赖于卷积网络。 ... [详细]
  • 本文介绍了在Python张量流中使用make_merged_spec()方法合并设备规格对象的方法和语法,以及参数和返回值的说明,并提供了一个示例代码。 ... [详细]
  • 背景应用安全领域,各类攻击长久以来都危害着互联网上的应用,在web应用安全风险中,各类注入、跨站等攻击仍然占据着较前的位置。WAF(Web应用防火墙)正是为防御和阻断这类攻击而存在 ... [详细]
  • 本文介绍了Python语言程序设计中文件和数据格式化的操作,包括使用np.savetext保存文本文件,对文本文件和二进制文件进行统一的操作步骤,以及使用Numpy模块进行数据可视化编程的指南。同时还提供了一些关于Python的测试题。 ... [详细]
  • 本文介绍了一道经典的状态压缩题目——关灯问题2,并提供了解决该问题的算法思路。通过使用二进制表示灯的状态,并枚举所有可能的状态,可以求解出最少按按钮的次数,从而将所有灯关掉。本文还对状压和位运算进行了解释,并指出了该方法的适用性和局限性。 ... [详细]
  • 建立分类感知器二元模型对样本数据进行分类
    本文介绍了建立分类感知器二元模型对样本数据进行分类的方法。通过建立线性模型,使用最小二乘、Logistic回归等方法进行建模,考虑到可能性的大小等因素。通过极大似然估计求得分类器的参数,使用牛顿-拉菲森迭代方法求解方程组。同时介绍了梯度上升算法和牛顿迭代的收敛速度比较。最后给出了公式法和logistic regression的实现示例。 ... [详细]
  • 本博文基于《Amalgamationofproteinsequence,structureandtextualinformationforimprovingprote ... [详细]
  • OCR:用字符识别方法将形状翻译成计算机文字的过程Matlab:商业数学软件;CUDA:CUDA™是一种由NVIDIA推 ... [详细]
  • 3年半巨亏242亿!商汤高估了深度学习,下错了棋?
    转自:新智元三年半研发开支近70亿,累计亏损242亿。AI这门生意好像越来越不好做了。近日,商汤科技已向港交所递交IPO申请。招股书显示& ... [详细]
author-avatar
布丁可爱_997
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有