多层感知机(MLP,全连接) |
L(y,f(x)) |
R(f)=∫L(y,f(x))p(x,y)dx,Remf=ΣL(y,f(x)) |
v=σiωixi,y=f(v) |
梯度法 |
- |
多层感知机(MLP,全连接–>BP网络) |
平方误差 |
- |
v=σiωixi,y=f(v),f是sigmoid,ω=argmin(E) |
输入从前向后,损失从后向前(链式法则),梯度下降法 |
允许非线性,收敛慢,过拟合,局部极小,表达能力强,容易执行 |
单层感知机 |
看分类对错 |
- |
ωx=0,一面1,一面−1,权向量是一个超平面 |
ω=ω+y∗⋅x,y∗=1或−1(C,真实y,正确:y∗=y) |
仅当线性可分时收敛,对噪声(不可分)/泛化性不好 |
单层感知机(最小二乘法) |
平方损失21Σi=1nΣk=1m(yk(xi)−tk,i)2
|
- |
y=v(线性的) |
wT=(XTX)−1XTT |
仅当线性可分时收敛,对噪声(不可分)/泛化性不好 |
单层感知机(改进) |
平方损失E=21Σi=1nΣk=1m(yk(xi)−tk,i)2
|
- |
y=1+e−v1(sigmoid |
$\frac{ |
|
\partial E}{\partial w_k}=\Sigma_{i=1}n\Sigma_{k=1}m(y_k(x_i)-t_{k,i})y_k(x_i)(1-y_k(x_i))x_i$ |
仅当线性可分时收敛,对噪声(不可分),泛化性不好 |
|
|
|
|
支持向量机 |
- |
最大化间隔,约束:minω21∥ω∥2,yiωTxi≥1,任意i,小于则为0(relu)
|
- |
- |
可以找到最好的分界面,解决了泛化性 |
Hopfield网络(能量稳定点-记忆) |
- |
有输入:E=−21Σi=0nΣj=0nωijsisj−Σi=0nIisi,没有输入则去除后面的
|
wij=ji(i!=j) |
权值是设定的wij=Σk=1Kxikxjk,i=j,否则0(n∗n矩阵)(s=x) |
f分布式记忆,动态联想,记忆容量有限,伪稳定点的联想与记忆,样本接近时,难以回忆 |