线性回归是机器学习中的一个概念,线性回归预测算法一般用于解决“利用已知样本估计未知公式参数”的问题。
举个栗子:
商家在销售鞋子时,可以利用历史上每个季度鞋子的定价x和销量y来估算“定价与销量的关系”(y=ax b),从而辅助鞋子的最优定价。
一、几个基本概念
回归:用已知样本估计未知的公式参数。Y=f(X1,X2,X3),其中回归函数f(X1,X2,X3)可以是任何函数。
线性回归:一种回归。回归函数是一个线性函数,例如:
Y=f(X1,X2,X3)=aX1 bX2 cX3 d
X1、X2和X3是训练样本集中样本的特征,a、b、c和d是模型的未知参数。
逻辑回归:将y标准化至[0,1]区间。
总之,逻辑回归是一种线性回归,线性回归是一种回归。
第二,线性回归模型通常是有效的
线性回归有什么用?
答:虽然线性回归的预测模型是一元线性方程,但现实中很多应用场景都符合这个模型。
例如,示例中商品的定价x和商品的销售额y之间的关系。一般来说,价格越高,销量越低,价格越低,销量越高。因此,可以用y=ax b的评价模型来最大化商家的收益:收益=定价*销量=x*y=x*(ax b)
什么场景适合线性回归?
答:很多应用场景是线性回归模型无法预测的,比如月份和平均气温,平均气温并不会随着月份的增加而线性上升或下降。它通常用于:
(1)预测或分类,用于问题分类时,需要设置阈值区间,提前知道阈值区间与类别的对应关系。
(2)线性问题可以有多个特征。
3.线性回归中的维数参数如何求解?
当样本集已知时,如果Y=f(X1,X2,X3,…)中的未知参数A,B,C=aX1 bX2 cX3…是从样本集中得到的呢?
本文首先介绍了最小二乘法和梯度下降法。
什么是最小二乘法?
答:最小二乘法适用于求解任意多维的线性回归参数。它可以求解一组最优的A、B、C解,使得对于样本集中的每个样本数据,用Y=f(X1,X2,X3,…)来预测样本,预测值与实际值的方差最小。
画外音:方差是我们常用的代价函数,用来评价回归预测函数的效果。
什么是梯度下降法?
答:其实最小二乘法只定义了估计函数是方差,真正求解A、B、C的方法是梯度下降法,是一种枚举算法,其算法步骤如下:
(1)使用随机a0、b0、c0和C0作为初始值
(2)分别求解最优a、b、c…值。对于每个维度参数,步骤如下(以A为例):
2.1)设置范围a的最大值和最小值
2.2)设置A计算的梯度步长(这就是为什么称之为梯度下降法)
2.3)固定其他尺寸参数
2.4)在a的所有值中,评价函数最小的是必选值。
数学上,它可以证明:
(1)上述算法可以收敛(很明显)。
(2)分别找出A、B、C的最优值,合起来就是整体最优值(不那么明显)。这个结论很重要。假设样本数为n,计算A、B、C的算法复杂度为线性O(m),这个结论使得算法的整体复杂度为n * O(m)n * O(m)n * O(m)n * O(m)n * O(m)n * O)。
画外音:电脑非常适合做这个。在确定范围和梯度后,这是一个线性复杂度算法。
第四,另一个栗子的描述。
过去四个季度的销量和价格数据样本集称为:
价格为10时,销量Y为80。
价格为20时,销量Y为70。
价格为30时,销量Y为60。
价格为40时,销量Y为65。
假设销售量y和价格x是线性的:
y=ax b
假设A的范围是[-2,2],A的梯度是1。
假设B的范围是[80,120],B的梯度是10。
画外音:电脑计算时,范围会很大,渐变精度会很精细。
求解最优A和B的过程如下:
(1)设a0=-2,b0=80,从极值边求解。
(2.1)先找到最优A,固定b=80,A从-2逐渐增加到2,从而找到最优A的解。
可以看出a=-1时方差最小,所以a=-1为最优解。
(2.2)再次求最优B,固定2.1中找到的最优a=-1,B的梯度从80增加到120,求最优B的解。
可以看出,当b=90时方差最小,所以b=90是最优解。
(3)得到最优解a=-1,b=90,然后得到定价与销量的关系:y=-x 90。
(4)最后得到
收入=定价*销售=x * y=x *(x-90)
因此,当价格定在45元时,整体收入可以最大化。
动词(verb的缩写)摘要
逻辑回归是一种线性回归,线性回归是一种回归。
线性回归可以用于预测或分类,以及解决多维线性问题。
线性预测函数的系数可以用最小二乘法和梯度下降法求解。
梯度法的核心步骤是:设定系数范围,设定系数梯度,固定其他系数,对某一系数穷尽性地寻找方差最小的最优解。
希望这一分钟,我对线性回归预测有一点了解。