为了训练logistic回归模型的参数w以及b,需要定义一个成本函数。
让我们来看一下。用logistic回归来训练的成本函数。
一、扼要重述
回忆一下,这张幻灯片的函数,你的输出y^=sigmoid(w^Tx+b),这里定义为sigmoid(z)。
为了让模型来通过学习调整参数,要给一个m个样本的训练集。很自然地,你想通过在训练集,找到参数w和b,来得到你的输出,对训练集中预测值,将它写成y^(l),我们希望它会接近于在训练集中的y^(i)值。
为了让上面的方程更详细一些,需要说明上面这些定义的y^,是对一个训练样本x来说的,对于每一个训练样本,使用这样带有括号的上标。方便引用说明,还有区分样本。
你的训练样本(i),对应的预测值是y^(i)是用训练样本,通过sigmoid函数作用到wT*x^(i)+b得到的,你也可以将z^(i)定义成z(i)=wT*x^(i)+b。
在这门课里,我们将使用这个符号约定,就是这个上标(i)来指明数据,表示x或者y或者z和第i个训练样本有关,这就是上标(i)的含义。
二、损失函数/误差函数
现在我们来看看损失函数或者叫做误差函数,它们可以用来衡量算法的运行情况。你可以定义为损失为y^和y的差的平方,或者它们差的平方的1/2。
结果表明,你可以这样做。但通常在logistic回归中,大家都不这么做。
因为当你学习这些参数的时候,你会发现之后讨论的优化问题会变成非凸的。最后,会得到很多个局部最优解。梯度下降法,可能找不到全局最优值。
如果你不能理解这几句话,别担心,我们会在后面的教学中讲到它。但是这个直观理解就是,我们通过定义这个损失函数L,来衡量你的预测值y^和y^的实际值有多接近。
误差平方,看起来似乎是一个合理的选择。但用这个的话,梯度下降法就不太好用。
在logistic回归中,我们会定义,一个不同的损失函数,它起着与误差平方相似的作用。这些会给我们一个凸的优化问题。
在后面的教学能看到,它很容易去做优化。
在logistic回归中,我们用的会是这里写的损失函数。它是-(y*log(y^)+(1-y)log(1-y^)).
直观地看看为何这个损失函数能起作用。
记得如果我们使用,误差平方越小越好。对于这个logistic回归的损失函数,同样地,我们也想让它尽可能地小。
为了更好地理解,为什么它能够起作用,让我们来看两个例子。
在第一个例子中,我们说y=1时,就是这第一项L(y^,y),带个符号就是-log(y^)。因为如果y=1,那么第二项1-y就等于0.这就是说当y=1时,你想让-log(y^)尽可能小,这意味着,想让log(y^)够大。
尽可能地大,这样就意味,你想要y^够大,但是因为y^是simoid函数得出的,永远不会大于1。也就是说,如果y=1时,你会想让y^尽可能地大,但它永远不会大于1。
另一个情况就是,如果y=0,损失函数的第一项等于0。因为y是0,然后第二项就是这个损失函数变成-log(1-y^)。
在学习过程中,想让损失函数小一些,也就意味着,你想要log(1-y^)够大,因为这里有一个符号。
通过这一系列推理,你可以得出,损失函数让y^尽可能地小。
再次,因为y^只能介于0到1之间,这就是说,当y=0时,损失函数会让这些函数,让y^尽可能地接近0,有很多函数都能达到这个效果。如果y=1,我们尽可能让y^很大。如果y=0,尽可能让y^足够小。
绿色字体这里,稍微解释了,为什么用这个作为损失函数。
后面我们会提供选修课,给出更正式的这样做的原因。解释为什么在logistic回归中,要用这个形式的损失函数。
最后说一下,损失函数是在单个训练样本中定义的。它衡量了在单个训练样本上的表现。
3、成本函数
下面我们要定义一个成本函数。它衡量的是在全体训练样本上的表现。这个成本函数J,根据之前得到的两个函数w和b,J等于1/m乘以求和L(y^(i),y^(i)),即所有训练样本的损失函数和。
而y^是用一组特定的参数w和b,通过logistic回归算法,得出的预测输出值。
所以,把这个展开,这等于-1/m,从i=1到m对损失函数求和,这是y^(i)*log(y^(i)),加上(1-y^(i)*log(1-y^(i))。我在这里划伤方括号,符号在这一堆式子的外面。
术语这样来用,损失函数只适用于,像这样的单个训练样本。这个成本函数,基于参数的总成本。
所以,在训练logistic回归模型时,我们要找到合适的参数w和b,让下面这里的成本函数J尽可能地小。
你刚看到了,logistic回归算法的过程,以及训练样本的损失函数,还有和参数相关的总体成本函数。
结果表明,logistic回归,可以被看作是一个非常小的神经网络。
【下节预告】在下一讲中,我们将会讲到,直观地去理解神经网络能做什么,看看如何将logistic回归看作一个非常小的神经网络。