作者: | 来源:互联网 | 2023-06-30 16:37
1. BN的是做什么的。
它其实做了两件事:
(1)批量归一化: 输入归一化x_norm = (x-u)/std,其中u和std是个累计计算的均值和方差。
(2)缩放与位移:y = alpha*x_norm+beta,对归一化后的x进行比例缩放和位移。其中的alpha和beta是通过迭代学习得到的。
可以看出:
批量归一化的均值与方差计算
参考:
Caffe Scale层解析 https://www.cnblogs.com/zhibei/p/12988187.html
caffe常用层: batchNorm层和scale层 https://www.cnblogs.com/LaplaceAkuir/p/7811383.html