热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

元学习系列(九):GradientAgreementasanOptimization

MAML尝试学习模型的初始化参数,使得这些参数对各类任务的梯度都是敏感的,这样针对某一特定任务甚至新的任务只需进行少数几次的梯度下降,就能

MAML尝试学习模型的初始化参数,使得这些参数对各类任务的梯度都是敏感的,这样针对某一特定任务甚至新的任务只需进行少数几次的梯度下降,就能取得较好的效果,可是因为这个过程中使用了二阶微分计算,增大了计算开销。

Reptile在MAML的原理上进行改进,省略了二阶微分计算的过程,同时也避免模型的性能显著下降,在性能和计算开销之间都取得较好的平衡。

简单来说,MAML和Reptile都是在想办法找到一个点,到各类任务的最优点的距离之和最小,但是其实两者都默认了各类任务对于寻求最优初始点的贡献是一样的,从MAML的公式就可以明显看出这一点:

θnew=θ−β∇θ∑L(fθi′)\theta_{new} = \theta - \beta \nabla_{\theta} \sum L (f_{\theta '_i})θnew=θβθL(fθi)

上式中的损失函数只是各个任务的损失函数之和,不同的损失函数拥有相同的权重。

现在有一种情况就是假如有n个任务,n-1个任务都倾向于同一个梯度下降方向,而还有一个任务则倾向于另一个完全相反的方向,这时候这个任务就阻止了模型朝着最优方向前进了,或者说,在这种情况下,模型更倾向于抛弃最后一个任务,通过降低那个任务的性能来优化更多的任务。

以MAML为例来看看Gradient Agreement是如何进行改进的,首先也是随机抽取不同任务的N个样本,对每个样本进行梯度下降:

θi=θ−αinner∇Lτi(fθ)\theta_i = \theta - \alpha_{inner} \nabla L_{\tau_i} (f_\theta)θi=θαinnerLτi(fθ)

gi=θ−θig_i = \theta - \theta_igi=θθi

接下来就是Gradient Agreement的重点,计算每个任务的权重了:

wi=∑j∈T(giTgj)∑k∈T∣∑j∈T(gkTgj)∣w_i = \frac{\sum_{j \in T} (g_i^T g_j)}{\sum_{k \in T} |\sum_{j \in T} (g_k^T g_j) |}wi=kTjT(gkTgj)jT(giTgj)

上式的意思就是,假如现在有五类任务,每类任务有五个样本,对于第一类任务的权重,分子等于第一类任务五个样本和所有样本之间的乘积之和,分母等于任意这二十五个样本任意两个的乘积之和的绝对值。简单来说,如果某类样本的梯度更新方向和其他样本的梯度更新方向比较接近,就会得到更高的权重,相反就更低。

计算出每类任务的权重之后,就可以继续进行分析,对MAML,就是:

θnew=θ−αouter∑iwi∇Lτi(fθi)\theta _{new} = \theta - \alpha_{outer} \sum_i w_i \nabla L_{\tau_i}(f_{\theta_i})θnew=θαouteriwiLτi(fθi)

对Reptile:

θnew=θ+αouter∑iwi(θi−θ)\theta _{new} = \theta + \alpha_{outer} \sum_i w_i (\theta_i - \theta)θnew=θ+αouteriwi(θiθ)

总的来说,Gradient Agreement的创新点就是针对不同的任务引入不同的权重,使得模型的能准确地朝着对初始参数进行优化。

在github写的自然语言处理入门教程,持续更新:NLPBeginner


在github写的机器学习入门教程,持续更新:MachineLearningModels


想浏览更多关于数学、机器学习、深度学习的内容,可浏览本人博客


推荐阅读
author-avatar
mobiledu2502897083
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有