在监督训练中,模型能根据预测结果与标签差值来计算损失,并向损失最小的方向进行收敛。
在无监督训练中,无法通过样本标签为模型权重指定收敛方向,这就要求模型必须有自我监督的功能。
比较典型的两个神经网络是自编码神经网络和对抗神经网络:
①自编码神经网络:把数据当作标签来指定收敛方向。
②对抗神经网络:一般会使用两个或多个子模型同时进行训练,利用多个模型之间的关系来达到互相监督的效果。
自编码是一种以重构输入信号为目标的神经网络。无监督学习领域中的一种,可以自动从无标注的数据中学习特征。
自编码由3个神经网络层组成:输入层、隐意层和输出民,其中,输入层的样本也会充当输出层的标签角色,即这个神经网络就是个尽可能复现输入信号的神经网络。
自编码神经网路本质上是一种输出和输入相等的模型。简单的自编码神经网络结构可以用一个3层的全连接神经网络表示。
在上图中,输入层与输出层的维度相同,中间层是编码器的输出结果,输出层也可以理解成解码器的输出结果。编码器负责将编入的原始数据编码转换至中间的低维数据,解码器负责将低维度数据解码回原始输入,实现加密解密的过程。
在训练过程中,用真始的输入数据与重构的解码数据一起执行MSE计算,将该计算结果作为损失值来指导模型的收敛方向
自编码神经网络要求输出尽可能等于输入,并且它的隐藏层必须满足一定的稀疏性,通过将隐藏层中后一层比前一层神经元数量少的方式来实现稀疏效果。这相当于的隐藏层对输入进行压缩,并在输出层中解压缩,在整个过程会去失信息,但训练能够使丢失的信息尽量少,最大化地保留其主要特征。
输入的数据在网络模型中会经过一系列特征变换,在输出时还会与输入时一样。虽然这种模型对单个祥本没有意义,但对整体样本集却很有价值。可以很好地学习到该数据集中样本的分布情况,既能将数据集进行压缩,实现提取数据主成分的功熊,又能与数据集的特征拟拟合,实现生成模拟数据的功能。
经过变换过程的中间状态可以输出比原始数据更好的特征描述,这使得自编码有较强的特征学习能力,因此常利用其中间状态的处理结果来进行AI任务的拟合。
在无监督学习中,常见形式是训练一个编码器将原始数据集编码为一个固定长度的向量,这个向量要保留原始数据尽可能多的重要信息。它通过训练所形成的自动编码器可以捕捉代表输入数据的最主要因素,找到可以代表原信息的主要成分。(如果自编码中的激活函数使用了线性函数,就是PCA模型了。)
编码器的概念在深度学习模型中应用非常广泛,例如,目标识别、语义分割中的骨干网模型,可以理解为一个编码器模型。在分类任务中,输出层之前的网络结构可以理解为一个独立的编码器模型。
在基本的自编码之上,又衍生出了一些性能更好的自编码神经网络,例如变分自编码神经网络、条件变分自编码神经网络等。它们的输入和输出不再单纯地着眼于单个样本,而是针对整个样本的分布进行自编码拟合,具有更好的泛化能力。
3 变分自编码神经网络变分自编码神经网络学习的是样本的规律,该神经网络不但具有重构样本的功能,而且具有仿照样本的功能。
变分自编码神经网络,在编码过程中改变了样本的分布(变分可理解为改变分布),学习样本的规律就是学习样本的分布。假设我们知道样本的分布函数,就可以从这个函数中随便取出一个样本,然后进行网络解码层前向传导,生成一个新的样本。
为了得到样本的分布函数,模型的训练目的将是通过增加一个约束项将编码器生成为服从高斯分布的数据集,按照高斯分布均值与方差规则任意取相关的数据,并将该数据输入解码器还原成样本。
4 条件变分自编码神经网络变分自编码神经网络虽然可以生成一个样本,但是只能输出与输入图片相同类别的样本。确切地说,我们并不知道生成的样本属于哪个类别。
条件变分自编码神经网绛在变分自编码神经网络的基础上进行了优化,可以让模型按照指定的类别生成样本。
条件变分自编码神经网络在变分自编码神经网络的基础上只进行了一处改动:在训练测试时,加入一个标签向量((one-hot类型)。
给变分自编码神经网络加了一个条件,让网络学习图片分布时加入了标签因素,这样可以按照标签的数值来生成指定的图片。