热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

反向传播(BackPropagation)

在利用梯度下降法对神经网络权重等参数进行训练时,需要利用反向传播去计算损失函数对权重参数的偏导数。反向传播下面分析是如何反向传播的(分析时不考虑偏置项),参考上图,①对于一个神经元

在利用梯度下降法对神经网络权重等参数进行训练时,需要利用反向传播去计算损失函数对权重参数的偏导数。

反向传播

下面分析是如何反向传播的(分析时不考虑偏置项),
在这里插入图片描述

参考上图,
① 对于一个神经元
   
   
     
     
       j
     
     
     
      j      
   
   j,它的输出被定义为,

   
     
     
       
       
         
          (1.1)
         
       
       
         
         
           
            O
           
           
            j
           
         
         
           =
         
         
           φ
         
         
           (
         
         
           n
         
         
           e
         
         
           
            t
           
           
            j
           
         
         
           )
         
         
           =
         
         
           φ
         
         
           (
         
         
           
            ∑
           
           
           
             k
           
           
             =
           
           
             1
           
           
           
            N
           
         
         
           
            w
           
           
           
             k
           
           
             j
           
           
         
         
           
            O
           
           
            k
           
         
         
           )
         
         
       
       
     
     
        O_j = \varphi(net_j)=\varphi(\sum_{k=1}^N w_{kj}O_k) \tag{1.1}
     
     
    Oj=φ(netj)=φ(k=1∑NwkjOk)(1.1)
其中,
   
   
     
     
       
        w
       
       
       
         k
       
       
         j
       
       
     
     
     
      w_{kj}      
   
   wkj表示神经元
   
   
     
     
       k
     
     
     
      k      
   
   k到
   
   
     
     
       j
     
     
     
      j      
   
   j之间的权重,
   
   
     
     
       
        O
       
       
        k
       
     
     
     
      O_k      
   
   Ok是上一层神经元的输出。
   
   
     
     
       φ
     
     
     
      \varphi      
   
   φ为激活函数,这里取为
   
   
     
     
       l
     
     
       o
     
     
       g
     
     
       i
     
     
       s
     
     
       t
     
     
       i
     
     
       c
     
     
     
      logistic      
   
   logistic函数,

   
     
     
       
       
         
          (1.2)
         
       
       
         
         
           φ
         
         
           (
         
         
           z
         
         
           )
         
         
           =
         
         
           
            1
           
           
           
             1
           
           
             +
           
           
             
              e
             
             
             
               −
             
             
               z
             
             
           
           
         
         
       
       
     
     
        \varphi(z)=\frac{1}{1+ e^{-z} } \tag{1.2}
     
     
    φ(z)=1+e−z1(1.2)

   
   
     
     
       l
     
     
       o
     
     
       g
     
     
       i
     
     
       s
     
     
       t
     
     
       i
     
     
       c
     
     
     
      logistic      
   
   logistic函数的求导公式为,

   
     
     
       
       
         
          (1.3)
         
       
       
         
         
           
           
             d
           
           
             φ
           
           
             
              (
             
             
              z
             
             
              )
             
           
           
           
           
             d
           
           
             z
           
           
         
         
           =
         
         
           φ
         
         
           
            (
           
           
            z
           
           
            )
           
         
         
           
            (
           
           
            1
           
           
            −
           
           
            φ
           
           
           
             (
           
           
             z
           
           
             )
           
           
           
            )
           
         
         
       
       
     
     
        \dfrac {d\varphi \left( z\right) }{dz}=\varphi\left( z\right) \left( 1-\varphi\left( z\right) \right) \tag{1.3}
     
     
    dzdφ(z)=φ(z)(1−φ(z))(1.3)
② 损失函数定义为,

   
     
     
       
       
         
          (1.4)
         
       
       
         
         
           E
         
         
           =
         
         
           
            1
           
           
            2
           
         
         
           
           
             (
           
           
             t
           
           
             −
           
           
             y
           
           
             )
           
           
           
            2
           
         
         
       
       
     
     
        E=\dfrac {1}{2}\left( t-y\right) ^{2} \tag{1.4}
     
     
    E=21(t−y)2(1.4)
其中,
   
   
     
     
       y
     
     
     
      y      
   
   y为输出层的输出,
   
   
     
     
       t
     
     
     
      t      
   
   t为期望输出。

考虑
   
   
     
     
       
        w
       
       
       
         k
       
       
         j
       
       
     
     
     
      w_{kj}      
   
   wkj对于
   
   
     
     
       E
     
     
     
      E      
   
   E的影响,是
   
   
     
     
       
        O
       
       
        j
       
     
     
     
      O_j      
   
   Oj间接影响的,因此可得下面的公式(这里假设
   
   
     
     
       j
     
     
     
      j      
   
   j前一层神经元为
   
   
     
     
       i
     
     
     
      i      
   
   i,即求对
   
   
     
     
       
        w
       
       
       
         i
       
       
         j
       
       
     
     
     
      w_{ij}      
   
   wij的偏导数),

   
     
     
       
       
         
          (1.5)
         
       
       
         
         
           
           
             ∂
           
           
             E
           
           
           
           
             ∂
           
           
             
              w
             
             
             
               i
             
             
               j
             
             
           
           
         
         
           =
         
         
           
           
             ∂
           
           
             E
           
           
           
           
             ∂
           
           
             
              O
             
             
              j
             
           
           
         
         
           
           
             ∂
           
           
             
              O
             
             
              j
             
           
           
           
           
             ∂
           
           
             n
           
           
             e
           
           
             
              t
             
             
              j
             
           
           
         
         
           
           
             ∂
           
           
             n
           
           
             e
           
           
             
              t
             
             
              j
             
           
           
           
           
             ∂
           
           
             
              w
             
             
             
               i
             
             
               j
             
             
           
           
         
         
       
       
     
     
        \dfrac {\partial E}{\partial w_{ij}}=\dfrac {\partial E}{\partial O_{j}}\dfrac {\partial O_{j}}{\partial net_{j}}\dfrac {\partial net_{j}}{\partial w_{ij}} \tag{1.5}
     
     
    ∂wij∂E=∂Oj∂E∂netj∂Oj∂wij∂netj(1.5)
其中,后两个偏导数可以直接求出,
   
   
     
     
       
       
         ∂
       
       
         
          O
         
         
          j
         
       
       
       
       
         ∂
       
       
         n
       
       
         e
       
       
         
          t
         
         
          j
         
       
       
     
     
     
      \frac{\partial O_{j}}{\partial net_{j}}      
   
   ∂netj∂Oj参考公式
   
   
     
     
       1.3
     
     
     
      {1.3}      
   
   1.3,
   
   
     
     
       
       
         ∂
       
       
         n
       
       
         e
       
       
         
          t
         
         
          j
         
       
       
       
       
         ∂
       
       
         
          w
         
         
         
           i
         
         
           j
         
         
       
       
     
     
       =
     
     
       
        O
       
       
        i
       
     
     
     
      \dfrac {\partial net_{j}}{\partial w_{ij}}=O_i      
   
   ∂wij∂netj=Oi。但是此时,
   
   
     
     
       
       
         ∂
       
       
         E
       
       
       
       
         ∂
       
       
         
          O
         
         
          j
         
       
       
     
     
     
      \dfrac{\partial E}{\partial {O_j}}      
   
   ∂Oj∂E,依然无法求出。不过如果
   
   
     
     
       j
     
     
     
      j      
   
   j是输出层,因为
   
   
     
     
       
        O
       
       
        j
       
     
     
       =
     
     
       y
     
     
     
      O_j=y      
   
   Oj=y,此时可求出
   
   
     
     
       E
     
     
     
      E      
   
   E对
   
   
     
     
       
        O
       
       
        j
       
     
     
     
      O_j      
   
   Oj的偏导数,

   
     
     
       
       
         
          (1.6)
         
       
       
         
         
           
           
             ∂
           
           
             E
           
           
           
           
             ∂
           
           
             
              O
             
             
              j
             
           
           
         
         
           =
         
         
           
           
             ∂
           
           
             E
           
           
           
           
             ∂
           
           
             y
           
           
         
         
           =
         
         
           
            ∂
           
           
           
             ∂
           
           
             y
           
           
         
         
           
            1
           
           
            2
           
         
         
           
           
             (
           
           
             t
           
           
             −
           
           
             y
           
           
             )
           
           
           
            2
           
         
         
           =
         
         
           y
         
         
           −
         
         
           t
         
         
       
       
     
     
        \dfrac {\partial E}{\partial O_{j}}=\dfrac {\partial E}{\partial y}=\dfrac {\partial }{\partial y}\dfrac {1}{2}\left( t-y\right) ^{2}=y-t \tag{1.6}
     
     
    ∂Oj∂E=∂y∂E=∂y∂21(t−y)2=y−t(1.6)
下面就到了最关键的一步,此时对于非输出层,我们无法直接求出
   
   
     
     
       
       
         ∂
       
       
         E
       
       
       
       
         ∂
       
       
         
          O
         
         
          j
         
       
       
     
     
     
      \frac{\partial E}{\partial {O_j}}      
   
   ∂Oj∂E,考虑将
   
   
     
     
       
        O
       
       
        j
       
     
     
     
      O_j      
   
   Oj对
   
   
     
     
       E
     
     
     
      E      
   
   E的作用向
   
   
     
     
       j
     
     
     
      j      
   
   j的下一层迭代,我们把
   
   
     
     
       E
     
     
     
      E      
   
   E考虑成一个输入由
   
   
     
     
       L
     
     
       =
     
     
       u
     
     
       ,
     
     
       v
     
     
       …
     
     
       ,
     
     
       w
     
     
     
      L=u,v \dots,w      
   
   L=u,v…,w这些神经元组成的函数,
   
   
     
     
       
        O
       
       
        j
       
     
     
     
      O_j      
   
   Oj是
   
   
     
     
       u
     
     
       ,
     
     
       v
     
     
       ,
     
     
       w
     
     
     
      u,v,w      
   
   u,v,w这些神经元的输入,
   
   
     
     
       
        O
       
       
        j
       
     
     
     
      O_j      
   
   Oj直接构成了对
   
   
     
     
       n
     
     
       e
     
     
       
        t
       
       
        u
       
     
     
       ,
     
     
       n
     
     
       e
     
     
       
        t
       
       
        v
       
     
     
       ,
     
     
       n
     
     
       e
     
     
       
        t
       
       
        w
       
     
     
     
      net_u,net_v,net_w      
   
   netu,netv,netw的影响。

   
     
     
       
       
         
          (1.7)
         
       
       
         
         
           
           
             ∂
           
           
             E
           
           
             
              (
             
             
             
               O
             
             
               j
             
             
             
              )
             
           
           
           
           
             ∂
           
           
             
              O
             
             
              j
             
           
           
         
         
           =
         
         
           
           
             ∂
           
           
             E
           
           
             
              (
             
             
              n
             
             
              e
             
             
             
               t
             
             
               u
             
             
             
              ,
             
             
              n
             
             
              e
             
             
             
               t
             
             
               v
             
             
             
              ,
             
             
              …
             
             
              ,
             
             
              n
             
             
              e
             
             
             
               t
             
             
               w
             
             
             
              )
             
           
           
           
           
             ∂
           
           
             
              O
             
             
              j
             
           
           
         
         
       
       
     
     
        \dfrac {\partial E\left( O_{j}\right) }{\partial O_{j}}=\dfrac {\partial E\left( net_u,net_v,\ldots ,net_{w}\right) }{\partial O_{j}} \tag{1.7}
     
     
    ∂Oj∂E(Oj)=∂Oj∂E(netu,netv,…,netw)(1.7)
利用全微分形式,可以获取到一个递归方程,

   
     
     
       
       
         
          (1.8)
         
       
       
         
         
           
           
             ∂
           
           
             E
           
           
           
           
             ∂
           
           
             
              O
             
             
              j
             
           
           
         
         
           =
         
         
           
            ∑
           
           
           
             l
           
           
             ∈
           
           
             L
           
           
         
         
           
            (
           
           
           
             
              ∂
             
             
              E
             
           
           
             
              ∂
             
             
              n
             
             
              e
             
             
             
               t
             
             
               l
             
             
           
           
           
           
             
              ∂
             
             
              n
             
             
              e
             
             
             
               t
             
             
               l
             
             
           
           
             
              ∂
             
             
             
               O
             
             
               j
             
             
           
           
           
            )
           
         
         
           =
         
         
           
            ∑
           
           
           
             l
           
           
             ∈
           
           
             L
           
           
         
         
           
            (
           
           
           
             
              ∂
             
             
              E
             
           
           
             
              ∂
             
             
             
               O
             
             
               l
             
             
           
           
           
           
             
              ∂
             
             
             
               O
             
             
               l
             
             
           
           
             
              ∂
             
             
              n
             
             
              e
             
             
             
               t
             
             
               l
             
             
           
           
           
           
             w
           
           
             
              j
             
             
              l
             
           
           
           
            )
           
         
         
       
       
     
     
        \dfrac {\partial E}{\partial O_{j}}=\sum _{l\in L}\left( \dfrac {\partial E}{\partial net_{l}}\dfrac {\partial net_{l}}{\partial O_j}\right) =\sum _{l\in L}\left( \dfrac {\partial E}{\partial O_l}\dfrac {\partial O_l}{\partial net_l}w_{jl}\right) \tag{1.8}
     
     
    ∂Oj∂E=l∈L∑(∂netl∂E∂Oj∂netl)=l∈L∑(∂Ol∂E∂netl∂Olwjl)(1.8)

通过递归方程,我们可以从输出层开始对需要求的偏导数进行递归,因此得名反向传播。

一个例子

下面以一个简单的网络来对上面的反向传播结果进行验证,如下图所示,
在这里插入图片描述

   
     
     
       
       
         
          (1.9)
         
       
       
         
         
           
           
             ∂
           
           
             E
           
           
           
           
             ∂
           
           
             
              w
             
             
             
               j
             
             
               −
             
             
               1
             
             
               ,
             
             
               j
             
             
           
           
         
         
           =
         
         
           
           
             ∂
           
           
             E
           
           
           
           
             ∂
           
           
             
              O
             
             
              j
             
           
           
         
         
           
           
             ∂
           
           
             
              O
             
             
              j
             
           
           
           
           
             ∂
           
           
             n
           
           
             e
           
           
             
              t
             
             
              j
             
           
           
         
         
           
           
             ∂
           
           
             n
           
           
             e
           
           
             
              t
             
             
              j
             
           
           
           
           
             ∂
           
           
             
              w
             
             
             
               j
             
             
               −
             
             
               1
             
             
               ,
             
             
               j
             
             
           
           
         
         
       
       
     
     
        \dfrac {\partial E}{\partial w_{j-1,j}}=\dfrac {\partial E}{\partial O_j}\dfrac {\partial O_j}{\partial net_j}\dfrac {\partial net_j}{\partial w_{j-1,j}} \tag{1.9}
     
     
    ∂wj−1,j∂E=∂Oj∂E∂netj∂Oj∂wj−1,j∂netj(1.9)

其中,上式
   
   
     
     
       
       
         ∂
       
       
         E
       
       
       
       
         ∂
       
       
         
          O
         
         
          j
         
       
       
     
     
       =
     
     
       
       
         ∂
       
       
         E
       
       
       
       
         ∂
       
       
         y
       
       
     
     
     
      \dfrac {\partial E}{\partial O_j}=\dfrac {\partial E}{\partial y}      
   
   ∂Oj∂E=∂y∂E,三项偏导数都可求出。接着求
   
   
     
     
       
       
         ∂
       
       
         E
       
       
       
       
         ∂
       
       
         
          w
         
         
         
           j
         
         
           −
         
         
           2
         
         
           ,
         
         
           j
         
         
           −
         
         
           1
         
         
       
       
     
     
     
      \dfrac {\partial E}{\partial w_{j-2,j-1}}      
   
   ∂wj−2,j−1∂E,


   
     
     
       
       
         
          (1.10)
         
       
       
         
         
           
           
             ∂
           
           
             E
           
           
           
           
             ∂
           
           
             
              w
             
             
             
               j
             
             
               −
             
             
               2
             
             
               ,
             
             
               j
             
             
               −
             
             
               1
             
             
           
           
         
         
           =
         
         
           
           
             ∂
           
           
             E
           
           
           
           
             ∂
           
           
             
              O
             
             
             
               j
             
             
               −
             
             
               1
             
             
           
           
         
         
           
           
             ∂
           
           
             
              O
             
             
             
               j
             
             
               −
             
             
               1
             
             
           
           
           
           
             ∂
           
           
             n
           
           
             e
           
           
             
              t
             
             
             
               j
             
             
               −
             
             
               1
             
             
           
           
         
         
           
           
             ∂
           
           
             n
           
           
             e
           
           
             
              t
             
             
             
               j
             
             
               −
             
             
               1
             
             
           
           
           
           
             ∂
           
           
             
              w
             
             
             
               j
             
             
               −
             
             
               2
             
             
               ,
             
             
               j
             
             
               −
             
             
               1
             
             
           
           
         
         
           =
         
         
           
           
             ∂
           
           
             E
           
           
           
           
             ∂
           
           
             
              O
             
             
              j
             
           
           
         
         
           
           
             ∂
           
           
             
              O
             
             
              j
             
           
           
           
           
             ∂
           
           
             n
           
           
             e
           
           
             
              t
             
             
              j
             
           
           
         
         
           
           
             ∂
           
           
             n
           
           
             e
           
           
             
              t
             
             
              j
             
           
           
           
           
             ∂
           
           
             
              O
             
             
             
               j
             
             
               −
             
             
               1
             
             
           
           
         
         
           
           
             ∂
           
           
             
              O
             
             
             
               j
             
             
               −
             
             
               1
             
             
           
           
           
           
             ∂
           
           
             n
           
           
             e
           
           
             
              t
             
             
             
               j
             
             
               −
             
             
               1
             
             
           
           
         
         
           
           
             ∂
           
           
             n
           
           
             e
           
           
             
              t
             
             
             
               j
             
             
               −
             
             
               1
             
             
           
           
           
           
             ∂
           
           
             
              w
             
             
             
               j
             
             
               −
             
             
               2
             
             
               ,
             
             
               j
             
             
               −
             
             
               1
             
             
           
           
         
         
       
       
     
     
        \dfrac {\partial E}{\partial w_{j-2,j-1}}=\dfrac {\partial E}{\partial O_{j-1}}\dfrac {\partial O_{j-1}}{\partial net_{j-1}}\dfrac {\partial net_{j-1}}{\partial w_{j-2,j-1}}=\dfrac {\partial E}{\partial O_{j}}\dfrac {\partial O_j}{\partial net_j}\dfrac {\partial net_j}{\partial O_{j-1}}\dfrac {\partial O_{j-1}}{\partial net_{j-1}}\dfrac {\partial net_{j-1}}{\partial w_{j-2,j-1}} \tag{1.10}
     
     
    ∂wj−2,j−1∂E=∂Oj−1∂E∂netj−1∂Oj−1∂wj−2,j−1∂netj−1=∂Oj∂E∂netj∂Oj∂Oj−1∂netj∂netj−1∂Oj−1∂wj−2,j−1∂netj−1(1.10)

在上式中,
   
   
     
     
       
       
         ∂
       
       
         E
       
       
       
       
         ∂
       
       
         
          O
         
         
         
           j
         
         
           −
         
         
           1
         
         
       
       
     
     
       =
     
     
       
       
         ∂
       
       
         E
       
       
       
       
         ∂
       
       
         
          O
         
         
          j
         
       
       
     
     
       
       
         ∂
       
       
         
          O
         
         
          j
         
       
       
       
       
         ∂
       
       
         n
       
       
         e
       
       
         
          t
         
         
          j
         
       
       
     
     
       
       
         ∂
       
       
         n
       
       
         e
       
       
         
          t
         
         
          j
         
       
       
       
       
         ∂
       
       
         
          O
         
         
         
           j
         
         
           −
         
         
           1
         
         
       
       
     
     
     
      \dfrac {\partial E}{\partial O_{j-1}}=\dfrac {\partial E}{\partial O_{j}}\dfrac {\partial O_j}{\partial net_j}\dfrac {\partial net_j}{\partial O_{j-1}}      
   
   ∂Oj−1∂E=∂Oj∂E∂netj∂Oj∂Oj−1∂netj,求
   
   
     
     
       
       
         ∂
       
       
         E
       
       
       
       
         ∂
       
       
         
          O
         
         
         
           j
         
         
           −
         
         
           1
         
         
       
       
     
     
     
      \dfrac {\partial E}{\partial O_{j-1}}      
   
   ∂Oj−1∂E时先求出
   
   
     
     
       E
     
     
     
      E      
   
   E对上一层的
   
   
     
     
       
        O
       
       
        j
       
     
     
     
      O_j      
   
   Oj的偏导数
   
   
     
     
       
       
         ∂
       
       
         E
       
       
       
       
         ∂
       
       
         
          O
         
         
          j
         
       
       
     
     
     
      \dfrac {\partial E}{\partial O_{j}}      
   
   ∂Oj∂E,公式(1.10)和(1.8)完全对应,上述过程充分体现了链式法则


推荐阅读
  • 也就是|小窗_卷积的特征提取与参数计算
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了卷积的特征提取与参数计算相关的知识,希望对你有一定的参考价值。Dense和Conv2D根本区别在于,Den ... [详细]
  • 本文为Codeforces 1294A题目的解析,主要讨论了Collecting Coins整除+不整除问题。文章详细介绍了题目的背景和要求,并给出了解题思路和代码实现。同时提供了在线测评地址和相关参考链接。 ... [详细]
  • 2018年人工智能大数据的爆发,学Java还是Python?
    本文介绍了2018年人工智能大数据的爆发以及学习Java和Python的相关知识。在人工智能和大数据时代,Java和Python这两门编程语言都很优秀且火爆。选择学习哪门语言要根据个人兴趣爱好来决定。Python是一门拥有简洁语法的高级编程语言,容易上手。其特色之一是强制使用空白符作为语句缩进,使得新手可以快速上手。目前,Python在人工智能领域有着广泛的应用。如果对Java、Python或大数据感兴趣,欢迎加入qq群458345782。 ... [详细]
  • HDU 2372 El Dorado(DP)的最长上升子序列长度求解方法
    本文介绍了解决HDU 2372 El Dorado问题的一种动态规划方法,通过循环k的方式求解最长上升子序列的长度。具体实现过程包括初始化dp数组、读取数列、计算最长上升子序列长度等步骤。 ... [详细]
  • IB 物理真题解析:比潜热、理想气体的应用
    本文是对2017年IB物理试卷paper 2中一道涉及比潜热、理想气体和功率的大题进行解析。题目涉及液氧蒸发成氧气的过程,讲解了液氧和氧气分子的结构以及蒸发后分子之间的作用力变化。同时,文章也给出了解题技巧,建议根据得分点的数量来合理分配答题时间。最后,文章提供了答案解析,标注了每个得分点的位置。 ... [详细]
  • 不同优化算法的比较分析及实验验证
    本文介绍了神经网络优化中常用的优化方法,包括学习率调整和梯度估计修正,并通过实验验证了不同优化算法的效果。实验结果表明,Adam算法在综合考虑学习率调整和梯度估计修正方面表现较好。该研究对于优化神经网络的训练过程具有指导意义。 ... [详细]
  • 浏览器中的异常检测算法及其在深度学习中的应用
    本文介绍了在浏览器中进行异常检测的算法,包括统计学方法和机器学习方法,并探讨了异常检测在深度学习中的应用。异常检测在金融领域的信用卡欺诈、企业安全领域的非法入侵、IT运维中的设备维护时间点预测等方面具有广泛的应用。通过使用TensorFlow.js进行异常检测,可以实现对单变量和多变量异常的检测。统计学方法通过估计数据的分布概率来计算数据点的异常概率,而机器学习方法则通过训练数据来建立异常检测模型。 ... [详细]
  • 本文介绍了在Python张量流中使用make_merged_spec()方法合并设备规格对象的方法和语法,以及参数和返回值的说明,并提供了一个示例代码。 ... [详细]
  • 统一知识图谱学习和建议:更好地理解用户偏好
    本文介绍了一种将知识图谱纳入推荐系统的方法,以提高推荐的准确性和可解释性。与现有方法不同的是,本方法考虑了知识图谱的不完整性,并在知识图谱中传输关系信息,以更好地理解用户的偏好。通过大量实验,验证了本方法在推荐任务和知识图谱完成任务上的优势。 ... [详细]
  • Learning to Paint with Model-based Deep Reinforcement Learning
    本文介绍了一种基于模型的深度强化学习方法,通过结合神经渲染器,教机器像人类画家一样进行绘画。该方法能够生成笔画的坐标点、半径、透明度、颜色值等,以生成类似于给定目标图像的绘画。文章还讨论了该方法面临的挑战,包括绘制纹理丰富的图像等。通过对比实验的结果,作者证明了基于模型的深度强化学习方法相对于基于模型的DDPG和模型无关的DDPG方法的优势。该研究对于深度强化学习在绘画领域的应用具有重要意义。 ... [详细]
  • 背景应用安全领域,各类攻击长久以来都危害着互联网上的应用,在web应用安全风险中,各类注入、跨站等攻击仍然占据着较前的位置。WAF(Web应用防火墙)正是为防御和阻断这类攻击而存在 ... [详细]
  • 建立分类感知器二元模型对样本数据进行分类
    本文介绍了建立分类感知器二元模型对样本数据进行分类的方法。通过建立线性模型,使用最小二乘、Logistic回归等方法进行建模,考虑到可能性的大小等因素。通过极大似然估计求得分类器的参数,使用牛顿-拉菲森迭代方法求解方程组。同时介绍了梯度上升算法和牛顿迭代的收敛速度比较。最后给出了公式法和logistic regression的实现示例。 ... [详细]
  • cs231n Lecture 3 线性分类笔记(一)
    内容列表线性分类器简介线性评分函数阐明线性分类器损失函数多类SVMSoftmax分类器SVM和Softmax的比较基于Web的可交互线性分类器原型小结注:中文翻译 ... [详细]
  • 本博文基于《Amalgamationofproteinsequence,structureandtextualinformationforimprovingprote ... [详细]
  • 【论文】ICLR 2020 九篇满分论文!!!
    点击上方,选择星标或置顶,每天给你送干货!阅读大概需要11分钟跟随小博主,每天进步一丢丢来自:深度学习技术前沿 ... [详细]
author-avatar
不懂珍惜的林记热_713
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有