作者:金里昂钢琴艺术中心 | 来源:互联网 | 2024-10-18 18:45
Introduction目标函数是深度学习之心,是模型训练的发动机。目标函数(objectfunction)损失函数(lossfunction)代价函数(costfunction)
Introduction
目标函数 是 深度学习之心,是 模型训练 的 发动机 。
目标函数 (object function) = 损失函数 (loss function) = 代价函数 (cost function)
其中,模型loss 统称为 non-decay loss ,正则loss 称为 decay loss 。
作用:
计算 预测结果 与 真实标记 之间的 误差,并通过 误差反向传播 算法,指挥 着 模型参数 哗啦啦地 刷新 。
目标函数 类型
主要分为 分类任务目标函数 和 回归任务目标函数。此外往往会加上 附加任务目标函数 (为了 防止过拟合/求得稀疏解 而加入的 正则项 )。
分类任务
假设某分类任务共 N N 个训练样本,针对网络最后分类层的第 i i 个样本的输入特征为 xi x i ,其对应的真实标记为 yi∈{ 1,2,...,C} y i ∈ { 1 , 2 , . . . , C } ,另 h=(h1,h2,...,hC)T h = ( h 1 , h 2 , . . . , h C ) T 为网络的最终输出,即样本 i i 的预测结果,其中 C C 为分类任务类别数。
yi y i :分类正确时为1,错误时为0;
hyi h y i :分类正确的那一个 hj h j ,可能为负值。
Softmax损失函数
Softmax损失函数(softmax function),又名 交叉熵损失函数 (CE) 。
该函数 是重要的 深度学习目标函数,也是 Sigmoid函数 的一种 推广。可转换为交叉熵误差 (CE) 。
CE(y^)=−1n∑k=1n[I{ y=y′}log(pt)] C E ( y ^ ) = − 1 n ∑ k = 1 n [ I { y = y ′ } log ( p t ) ]
是 最常用 的分类任务目标函数。
合页损失函数
合页损失函数,hinge loss,主要被运用于SVM中。
L=1N∑i=1Nmax{ 0,1−hyi} L = 1 N ∑ i = 1 N max { 0 , 1 − h y i }
max{ 0,1−hyi} max { 0 , 1 − h y i } :保证了每个单样本的损失值不为负。
效果略逊于交叉熵损失函数。
坡道损失函数
坡道损失函数,ramp loss function。
亮点是 增强了 抗噪能力 。
坡道损失函数 和 Tukey’s biweight 损失函数 并称 鲁棒损失函数 。
大间隔交叉熵损失函数
引入了SVM的思想,即在 要求 分类正确 之外,还 额外要求 分开的类 需保持较大间隔 。
较难训练。
但在 分类性能 方面 优于 交叉熵损失函数 和 合页损失函数。
中心损失函数
在 大间隔交叉熵损失函数 的 基础上,更进一步要求 减小类内差异 。
Focal Loss损失函数
对Softmax损失函数进行“类别平衡”约束。
回归任务
预测误差,即 残差 ,用于 衡量 模型预测值 与 真实标记 的 靠近程度 。
假设回归问题中,对应第 i i 个输入特征 xi x i 的真实标记为 yi=(y1,y2,...,yM)T y i = ( y 1 , y 2 , . . . , y M ) T , M M 为标记向量总维度,则 lit l t i 即表示样本 i i 上网络回归预测值 (y^i) ( y ^ i ) 与其真实标记在第 t t 维的预测误差 (亦称 残差) :
lit=yit−y^it l t i = y t i − y ^ t i
| L1损失函数 | L2损失函数 |
---|
回归精度 | | 少数情况下略优,大部分情况下差不多 |
收敛速度 | | 略快 |
运用程度 | 较常用 | 最常用 |
L1损失函数
L=1N∑i=1N∑t=1M|lit| L = 1 N ∑ i = 1 N ∑ t = 1 M | l t i |
Detection中常用的是 Smooth L1 。
L2损失函数
L=1N∑i=1N∑t=1M(lit)2 L = 1 N ∑ i = 1 N ∑ t = 1 M ( l t i ) 2
Tukey’s biweight 损失函数
可克服 离群点样本 和 噪声样本 所带来的 干扰,鲁棒性 强。
其他任务
某些 无法被 简单划归为 分类 或 回归 的任务,需要设计其他的目标函数。
Summary
[1] 解析卷积神经网络—深度学习实践手册
[2] 深度学习: 分类 目标函数 (交叉熵误差(CE) -> 焦点损失(FL))