热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

【神经网络和深度学习】笔记第四章神经网络可以实现任意函数的直观解释...

文章导读:1.两个前提2.单输入单输出的情况3.一般情形:多输入多输出情况4.使用sigmoid以外的神经元5.修正阶跃函数6.总结神经网络最令人激动的

文章导读:

1. 两个前提

2. 单输入单输出的情况

3. 一般情形:多输入多输出情况 

4. 使用sigmoid以外的神经元

5. 修正阶跃函数

6.总结

 

神经网络最令人激动的一个性质,就是它可以实现任意功能的函数。而且是即使对于只有一个隐藏层的神经网络,这个结论依然成立。

大部分神经网络的使用者都知道这个性质,但是并不理解为什么神经网络会有这样的性质。而其理论证明对于非数学专业的同学来说并不好理解,所以本章旨在用直观的方式帮助大家理解这个性质。

 

一. 两个前提

神经网络可以计算任意函数其实是有前提的。

首先要明白的是它并不是可以完全准确的计算原函数的值&#xff0c;但是通过增加隐藏层神经元的值我们可以越来越逼近原函数。就是说对于一个需要实现的函数$f(x)$&#xff0c;要求实现精度为$\epsilon > 0$&#xff0c;也就是需要足够的隐藏层神经元使得神经网络输出$g(x)$满足$|g(x) - f(x)| <\epsilon$对所有输入$x$。

第二个前提是被模拟的函数是连续函数&#xff0c;不过有的时候对于非连续函数&#xff0c;神经网络得到的连续近似已经足够满足要求了。

 

二. 单输入单输出的情况

先考虑最基础的单输入单输出的函数情况。为了理解怎么利用神经网络去计算给定函数$f$&#xff0c;我们先考虑只有一个隐藏层的情况&#xff0c;其中含有两个神经元。

考虑隐藏层第一个神经元&#xff0c;其输出由$\sigma (wx&#43;b)$决定。改变其参数$w$和$b$可以发现如下规律&#xff1a;

  • 改变b不会使函数形状发生改变&#xff0c;只会使其左右偏移。因为$f(x) &#61; \frac{1}{1&#43;e^{wx&#43;b&#43;b_0}} &#61; \frac{1}{e^{w(x&#43;\frac{b_0}{w}) &#43; b}}$&#xff0c;$b_0>0$时即$b$增大时&#xff0c;相当于图像向左移动&#xff0c;$b_0<0$时即$b$减小时&#xff0c;相当于图像向右移动。
  • 改变w则会改变函数的形状&#xff0c;因为$f(x) &#61; \frac{1}{1&#43;e^{(w&#43;w_0)x&#43;b}} &#61; \frac{1}{1&#43;e^{wx\frac{w&#43;w_0}{w} &#43; b}}$&#xff0c;相当于在横轴上进行了放缩。当$|w|$($w<0$的时候&#xff0c;函数会在x轴上反转&#xff0c;不过不影响我们理解)变的越来越大的时候&#xff0c;函数就会变的越来越陡峭。实际中观察&#xff0c;当$w&#61;100$左右时&#xff0c;函数的陡峭程度已经接近于阶跃函数了。

 

继续增大$w$的值使得其输出更加接近阶跃函数&#xff1a;

当我们对隐藏层的神经元的输出进行加权求和的时候&#xff0c;分析阶跃函数要比分析sigmoid函数容易。我们很容易可以知道两个阶跃函数的和是什么形式&#xff0c;但是对于两个sigmoid函数就没有这么容易得到。所以我们先假设这些神经元输出函数就是阶跃函数&#xff0c;当然这也是一种近似&#xff0c;我们随后再看这和真正的情况相比会有什么影响。

再考虑另外一个问题&#xff0c;我们知道标准的$\sigma (z)$的中点在$z&#61;0$处&#xff0c;当它近似为一个阶跃函数的时候&#xff0c;阶跃点在哪呢&#xff1f;容易知道就是在$wx&#43;b &#61; 0$处&#xff0c;即$s &#61; -\frac{b}{w}$。于是对于已经近似被认为是阶跃函数的神经元就可以只用一个参数$s &#61; -\frac{b}{w}$来代替之前的两个参数$w$和$b$。

接着再来考虑整个神经网络的情况。

右边展示的是加权输出的结果$w_1 a_1 &#43; w_2 a_2$&#xff0c;其中$a_1$和$a_2$分别是隐藏层两个神经元的输出。不过注意到这里神经网络最终的输出为$\sigma (w_1 a_1 &#43; w_2 a_2 &#43;b)$。

通过调节这些参数可以观察到&#xff1a;

  • 调节$s_1$的大小$s_2$分别控制上下两个神经元的激活前后顺序。例如$s_1
  • 调节$w_1$和$w_2$分别控制两个神经元输出在输出神经元的权重&#xff0c;当其中一个为0时&#xff0c;只剩下一个输入&#xff0c;右边的函数也显示为只有一个阶跃函数。

最后&#xff0c;试着让$w_1 &#61; 0.8, w_2 &#61; -0.8$&#xff0c;然后$s_1 &#61; 0.4, s_2 &#61; 0.6$就得到一个在(0.4, 0.6)上的门函数&#xff1a;

 如果我们固定$s_1$和$s_2$&#xff0c;然后$w_1 &#61; -w_2$&#xff0c;这样就可以将门函数看作是只有一个参数$h$的模型&#xff0c;其中$h &#61; w_1$&#xff0c;对应着就是门函数的“门梁”的位置。

通过组合神经元我们就可以轻易得到两个门函数组合的情况&#xff1a;

同样的方法&#xff0c;我们可以构造任意数量任意高度的门函数。因为对于[0,1]这个区间的划分是可以有无限多N个的&#xff0c;只要使用N对隐藏层神经元就&#xff0c;然后分别配上对应的$h$就可以达到要求了。

上图就是一个五个宽度一样的门函数的情形&#xff0c;高度由各自的参数$h$决定。但是仅仅这样就能说明神经网络可以计算任意函数吗&#xff1f;看下面这个例子&#xff1a;

这个函数来自&#xff1a;

$$f(x)&#61;0.2 &#43; 0.4x^2 &#43; 0.3x sin(15x) &#43; 0.05 cos(50x) \quad (113)$$

看上去这个函数形式和神经网络完全没什么联系&#xff0c;接下来就来看看神经网络是怎么去近似计算它的。

前面提到过$w_1 a_1 &#43; w_2 a_2 &#43; ...$并不是神经网络最终输出&#xff0c;最终输出为$\sigma (\sum_j w_j a_j &#43; b)$&#xff0c;那么为了让最终输出为需要的函数$f(x)$&#xff0c;就要求$\sigma$函数的输入为$\sigma^{-1} (f(x))$&#xff0c;即隐藏层输出的加权和为$\sigma^{-1} (f(x))$&#xff0c;其中$\sigma^{-1}$为$\sigma$的反函数。

 

 于是只要有方法可以让隐藏层输出和近似等于上面反函数&#xff0c;就相当于神经网络的最终输出近似等于$f(x)$了。对于上面五个门函数的情形&#xff0c;通过调节各自的$h$得到符号近似要求的结果&#xff1a;

这虽然只是一个粗略的近似&#xff0c;结果也不唯一&#xff0c;但是只要通过增加门函数的个数&#xff0c;即增加隐藏层神经元的个数&#xff0c;就可以让结果越来越精确。将这个得到的模型转换到我们的神经网络参数上&#xff0c;隐藏层的$w$取了很大的数$w&#61;1000$&#xff0c;由于$s&#61;-\frac{b}{w}&#61;0.2$&#xff0c;得到$b &#61; -1000*0.2&#61;-200$。

输出层的权重由$h$决定&#xff0c;例如第一个$h&#61;-1.3$&#xff0c;说明它代表的两个权重分别为-1.3和1.3&#xff0c;以此类推&#xff0c;输出层的bias这里被设置为0。

这样就完成了通过构造一个神经网络来逼近目标函数的目的了&#xff0c;而且通过增加隐藏层神经元的个数可以使得这个近似结果更加准确。事实上&#xff0c;我们的目标函数$f(x)&#61;0.2&#43;0.4x^2&#43;0.3sin(15x)&#43;0.05cos(50x)$的形式无关紧要&#xff0c;本质上我们使用一个单层神经网络构建了一个lookup表&#xff0c;不同区间对应不同的值&#xff0c;区间分的越细小&#xff0c;就越准确。

 

三. 一般情形&#xff1a;多输入多输出情况 

 先考虑两个输入的情况&#xff1a;

我们将$x$和$y$看作是变量&#xff0c;其加权输出和为因变量&#xff0c;这样就将之前的平面图像转变为了3d图像&#xff0c;不妨先设$w_2 &#61; 0$&#xff0c;这样图像为&#xff1a;

可以看到平行于x轴的任意截面都是之前看到的平面上的曲线形式。同样的原理&#xff0c;改变$w_1$和$b$分别改变曲线的形状和位置。同样将$w_1$设定为一个很大的数&#xff0c;曲线转变为阶跃函数&#xff0c;位置为$s_x &#61; -\frac{b}{w_1}$&#xff1a;

这里对应着$w_1 &#61; 1000, w_2 &#61; 0$。同样可以设定$w_2 &#61; 1000, w_1 &#61; 0$这样就成了平行于y轴的曲线&#xff1a;

接着通过组合&#xff0c;我们得到了对应门函数的一个3d情况&#xff1a;

注意这里的y并没有起到作用&#xff0c;和y相连的权重都被设置成了0。类似也有只有y的版本&#xff0c;将和x的相连的权重设置为0:

如果我们将这两个方向垂直的门函数相加呢&#xff1a;

改变$h$的大小可以改变图像的高度&#xff0c;很容易可以知道中间最高的地方是边上的两倍高。我们于是想到能否用中间的高度作为中间区间上的值&#xff0c;这种方法去将定义域分割成一个个区间呢&#xff0c;然后每个区间对应一个值&#xff0c;区间分的越细就越逼近原函数。类似于之前单输入的情况&#xff0c;这次是一个二维的lookup表。

但是这就需要我们得到的是一个下图类似的塔函数&#xff1a;

但是我们得到的情况是除了中间是高的&#xff08;$2h$&#xff09;&#xff0c;边上并不是平的&#xff0c;也有一定的高度&#xff08;$h$&#xff09;&#xff0c;并不满足塔函数的条件。怎么将其转变为塔函数的形状呢&#xff1f;注意到&#xff0c;这里只是隐藏层的加权输出和&#xff0c;并不是输出神经元的输出&#xff0c;也就是说还有一个$\sigma$函数的作用没有考虑&#xff0c;就可以尝试调节输出神经元的bias$b$来进行调节。

考虑门函数的输出值由$h$决定&#xff0c;我们可以得到神经网络的输出值&#xff08;不再是隐藏层的输出了&#xff09;中间区域的值近似为$f_{max} &#61; \frac{1}{1&#43;e^{-(2h&#43;b)}}$&#xff0c;边上区域的值近似为$f_{min} &#61; \frac{1}{1&#43;e^{-(h&#43;b)}}$。我们想要$f_{max}$能够近似等于需要的值$g$&#xff0c;这种情况下得到条件一&#xff1a;$2h&#43;b&#61;c$&#xff0c;其中$c$为一个常数。又为了让$f_{min} \approx 0$&#xff0c;就需要条件二&#xff1a;$h&#43;b<<0$。这样就可以通过调节$h$与$b$的值使得这两个条件都成立&#xff0c;因为只要$h$足够大&#xff0c;$h&#43;b &#61; c - h$就会足够小。不妨选择$h&#61;10, b \approx -\frac{3h}{2}$&#xff0c;得到&#xff1a;

注意到这里的图像是输出神经元的输出&#xff0c;也就是经过$\sigma$函数后的结果。可以看到&#xff0c;这已经得到了一个形式不错的塔函数了&#xff0c;继续增加$h$的值&#xff0c;调节$b&#61;-\frac{3h}{2}$&#xff0c;效果会更加明显。

接着我们将两个类似这样的神经网络组合去得到两个塔函数&#xff1a;

每个塔函数对应着第二个隐藏层的每个神经元的输出&#xff0c;调节两个$w$的值可以分别调节其高度。同样的方式我们可以得到任意多个自定义高度的塔函数&#xff0c;每个塔函数对应2维平面上的一个区域&#xff0c;通过这样的2维lookup就可以使得第二个隐藏层的加权输出可以近似等价于任意关于两个变量的函数$f(x,y)$。

但是这毕竟不是输出层的输出&#xff0c;于是类似的方法我们使用$\sigma$函数的反函数&#xff0c;让第二个隐藏层加权输出等价于$\sigma^{-1} (f(x,y))$即可。

如果输入变量个数多余两个呢&#xff1f;

先看一下三个变量的情况$x_1, x_2, x_3$。类似于上面的情况&#xff0c;下面这个神经网络可以得到一个四维空间上的塔函数&#xff1a;

这里$x_1,x_2,x_3$为神经网络的输入&#xff0c;$s_1,t_1,s_2,t_2$都是控制门函数的位置&#xff0c;其中第一层隐藏层的权重已经足够大了使得它们各自的输出为阶跃函数&#xff0c;然后各自的偏差由$b&#61;-sw$得到。然后第二层隐藏层的权重全部为$h$和$-h$&#xff0c;然后不妨令其bias为$-\frac{5h}{2}$&#xff0c;验证仍然满足之前构造塔函数的条件$h&#43;b &#61; -\frac{3h}{2} <<0$和$3h&#43;b &#61; \frac{h}{2} &#61; c$(c为一常数)。

随着增大$h$到一定程度&#xff0c;这个神经网络于是就相当于对于3维上一块区域$x_1 \in (s_1,t_1), x_2 \in (s_2, t_2), x_3 \in (s_3, t_3)$&#xff0c;其值为1&#xff0c;其他任意位置为0的塔函数。

通过组合这样的神经网络就可以将多个塔函数相组合就可以近似替代任意三个变量的函数。同样的想法可以拓展到$m$维空间&#xff0c;只要记得将进行组合处的神经元bias设置为$(-m&#43;\frac{1}{2})h$使得函数形式为中间凸起&#xff0c;旁边为0。

 这样就得到了使用神经网络逼近任意输出为一维的函数的方法了。但是神经网络的输出经常是多维的$f(x_1, ..., x_m) \in R^n$&#xff0c;例如前面的MNIST问题时输出为10维&#xff0c;这种情况怎么处理呢&#xff1f;

这种情况可以看作是$n$个独立的函数&#xff1a;$f^1 (x_1, ..., x_,m), f^2 (x_1, ..., x_m)$&#xff0c;我们分别设计神经网络近似表示$f_1, f_2$等等&#xff0c;然后简单的将它们组合即可。

拓展&#xff1a;

上面介绍了如何用两个隐藏层的神经网络去近似表示函数&#xff0c;能否证明只需要一层隐藏层就可以完成这样的设计&#xff1f;试着在两个输入的情况下&#xff0c;依次证明&#xff1a;(a)除了x轴&#xff0c;y轴以外&#xff0c;可以构造任意方向的阶跃函数&#xff1b;(b)通过将大量的(a)中的函数叠加&#xff0c;可以得到一个底面形状不再是长方形而是圆形的塔函数&#xff1b;(c)使用这些圆形的塔函数&#xff0c;可以近似表示任意函数。

(a)&#xff1a;

 先看一下之前得到的方向为什么是x轴&#xff0c;y轴&#xff0c;或者说这些方向是由什么决定的。$\frac{1}{1&#43;e^{-(w_1 x&#43; w_2 y &#43;b)}}$&#xff0c;之前选择w_2为0时&#xff0c;得到的阶跃函数时x轴方向的&#xff0c;可以发现阶跃函数的方向是和直线$w_1 x&#43; w_2 y &#43;b &#61; 0$垂直的方向。所以说只要根据需要的方向构造与该方向垂直的直线$w_1 x &#43; w_2 y &#43; b &#61; 0$中的$w_1$和$w_2$即可&#xff0c;也就是说现在的阶跃函数的构造不仅仅依靠一个输入神经元&#xff0c;而是两个都需要。

(b):

两个长方形垂直相交的重叠部分是方形&#xff0c;如果三个&#xff0c;四个呢&#xff1f;这个也许不好想象&#xff0c;但是换一个思路&#xff0c;对一个长方形绕着其中心旋转&#xff0c;中间不变的部分就是以中心为圆心的内切圆&#xff0c;所以只要组合足够多不同方向的(a)中阶跃函数&#xff0c;就可以得到近似圆形底面的塔函数。

(c)&#xff1a;

长方形区域很容易可以拼成一块大的区域&#xff0c;但是圆形却不行&#xff0c;它们之间总是有缝隙的。可以通过本文后面部分介绍的方法&#xff0c;将这些未覆盖的部分当成是“失败区域”&#xff0c;使用函数近似表示原函数的$\frac{1}{M}$&#xff0c;每次移动$\frac{1}{M}$单位个步长&#xff0c;最后叠加就得到覆盖满所有区域的目标函数。

这里按照作者给出的提示解答完了这三步&#xff0c;但是我还是不大清楚这和能用一个隐藏层有什么联系&#xff0c;因为圆形的塔函数依然面临之前的一个问题&#xff0c;就是除了中间高的区域外&#xff0c;还存在边上的不为0的区域&#xff0c;还是要依靠一个神经元将其转变为真正的塔的形式&#xff0c;中间凸出&#xff0c;边缘为0。我理解的一个隐藏层可以解决的原因是类似于在进行傅立叶级数展开的时候&#xff0c;我们将函数表示成一组三角函数基函数的线性叠加。其实任意连续函数都可以看作为一组基函数的叠加&#xff0c;然后在一个隐藏层选择合适的基函数叠加即可。

 四. 使用sigmoid以外的神经元

前面已经证明了以sigmoid神经元为基础的神经网络可以计算任意函数。回忆一下sigmoid函数的形式&#xff0c;对于输入$z&#61;\sum_j w_j x_j &#43;b$&#xff0c;$\sigma(z)$的形式为&#xff1a;

如果将其换成一个不一样的激活函数$s(z)$:

会出现什么情况呢&#xff1f;

同样得方法&#xff0c;我们用这个函数也可以得到阶跃函数。试着增大$w&#61;100$&#xff1a;

类似于sigmoid函数的情况&#xff0c;新的激活函数一样会收缩&#xff0c;随着$w$的继续增大&#xff0c;它最终也会成为一个阶跃函数的近似表示。然后通过改变$b$的值就能实现对该阶跃函数的移动。使用之前一样的方法就可以构造神经网络近似表示所需的目标函数。

那么是不是所有的激活函数$s(z)$都满足这样的要求可以得到阶跃函数呢&#xff1f;事实上只需要$s(z)$在$z\rightarrow -\infty$和$z \rightarrow \infty$时极限存在&#xff0c;并且这两个极限的值不相等即可。相等的话就不是阶跃了&#xff0c;而是一个“平”的常量函数了。激活函数满足这些性质之后&#xff0c;神经网络就可以逼近任意函数了。

拓展&#xff1a;

拓展一&#xff1a;

证明之前介绍的RELU神经元不满足上述的条件&#xff0c;但是RELU函数一样可以构造上述神经网络近似表示任意函数。

答案&#xff1a;

RELU在$x>0$时是一个线性增长的函数&#xff0c;当$x\rightarrow \infty$时&#xff0c;$RELU(x) \rightarrow \infty$&#xff0c;极限值并不存在&#xff0c;所以不满足要求。

虽然一个RELU函数按照之前改变参数的方法怎么也变不成阶跃函数&#xff0c;但是可以通过两个RELU函数相叠加得到。对于$y&#61;wx$和$y&#61;-wx&#43;b(k>0)$&#xff0c;后者相对前者向右移动了$\frac{b}{w}$&#xff0c;于是两者相加得到了一个分段函数

$$s(x) &#61; \left\{\begin{align*} & 0 \quad if x \leqslant 0 \\ & wx \quad if 0 \frac{b}{w} \end{align*}\right.$$

通过增大$w$就可以减小$\frac{b}{w}$从而让这个分段函数中间增长的部分变的更窄&#xff0c;使之近似为阶跃函数。

 

拓展二&#xff1a;

考虑激活函数为线性函数$s(z)&#61;z$的神经元&#xff0c;证明该函数不满足上述条件&#xff0c;也无法构造上述神经网络近似表示任意函数。

答案&#xff1a;

这个函数在$x\rightarrow \infty$和$x \rightarrow -\infty$处的极限都不存在&#xff0c;显然不满足上面的条件。

线性函数自身不具有这样的性质&#xff0c;线性函数的线性组合还是连续的线性函数&#xff0c;依然是无法满足阶跃函数的要求的。

五. 修正阶跃函数

之前已经证明了我们通过对神经元进行组合得到近似的阶跃函数&#xff0c;但这始终是近似表示&#xff0c;其中还存在一段函数并非阶跃函数的“失败区域”&#xff1a;

虽然通过增大wegiths&#xff0c;可以使得这块区域越来越窄&#xff0c;也就是说与阶跃函数的差别越来越小。不过还有其他的处理这个问题的方法的话当然就更好了。

事实上&#xff0c;这个问题并不难解决。设想对于一个一维函数$f(x)$&#xff0c;按照之前的方法&#xff0c;我们需要隐藏层的输出可以表示成&#xff1a;

按照之前的方法&#xff0c;我们使用一系列的门函数去表示这个函数&#xff1a;

可以看到&#xff0c;只要门函数足够多&#xff0c;门的宽度足够窄就可以使得对目标函数的近似表示越好&#xff0c;除了在交界处的“失败区域”。

这次我们不用上面的近似&#xff0c;我们使用目标函数值的一半作为近似对象&#xff0c;$\sigma ^{-1}(\frac{f(x)}{2})$:

接着使用另外一套隐藏层去近似表示这样的函数&#xff1a;它是上面门函数组成的函数横向平移半个门宽度得到的&#xff1a;

当我们把这两个函数叠加到一起的时候就会得到一个$\sigma ^{-1}(f(x))$的近似。这个近似虽然还是会存在“失败区域”&#xff0c;但是比之前的近似已经好多了。这是因为&#xff0c;对于一个点在一个近似函数的“失败区域”时&#xff0c;它将不会出现在另一个近似函数的“失败区域”。

通过减小每次移动的步长为窗口的$\frac{1}{M}$&#xff0c;将M个$\sigma^ {-1}(f(x)/M)$的近似函数叠加&#xff0c;即得到更好的原始函数的近似表示。

六.总结

这一章描述了神经网络拟合函数的普遍性&#xff0c;但是这当然不是实际中我们使用神经网络计算的方式。不过它让我们知道以后在面对一个问题的时候&#xff0c;不是去怀疑神经网络能不能表示这个函数&#xff0c;而是考虑更重要的事&#xff0c;怎么才能找到一个这个函数的好的近似。

我们的讨论用了两层神经元&#xff0c;不过一层神经元也可以完成这样的工作。那我们为什么还要去用那些层数更多的深度神经网络呢&#xff1f;

理论上这是可能的&#xff0c;不过实际上我们有很多理由相信深度网络更好。在第一章已经讨论过&#xff0c;现实中的问题和知识体系往往是由浅入深的层级关系&#xff0c;而深度网络的层级结构就非常切合这一点。例如对于图像识别的问题&#xff0c;只是着眼于单个像素点的理解当然是不够的&#xff0c;我们更希望它能够识别出更复杂的模式&#xff1a;从简单的线条到复杂的几何形状等等。在随后的章节也会看到&#xff0c;深度网络对于这种层级的问题处理结果的确要好于浅层网络。

总之就是&#xff0c;单层的神经网络就已经可以计算任何函数&#xff0c;但是经验告诉我们&#xff0c;在解决现实问题上&#xff0c;深度网络更加适合。

转:https://www.cnblogs.com/yeluzi/p/7491619.html



推荐阅读
  • 阿里Treebased Deep Match(TDM) 学习笔记及技术发展回顾
    本文介绍了阿里Treebased Deep Match(TDM)的学习笔记,同时回顾了工业界技术发展的几代演进。从基于统计的启发式规则方法到基于内积模型的向量检索方法,再到引入复杂深度学习模型的下一代匹配技术。文章详细解释了基于统计的启发式规则方法和基于内积模型的向量检索方法的原理和应用,并介绍了TDM的背景和优势。最后,文章提到了向量距离和基于向量聚类的索引结构对于加速匹配效率的作用。本文对于理解TDM的学习过程和了解匹配技术的发展具有重要意义。 ... [详细]
  • 本文介绍了P1651题目的描述和要求,以及计算能搭建的塔的最大高度的方法。通过动态规划和状压技术,将问题转化为求解差值的问题,并定义了相应的状态。最终得出了计算最大高度的解法。 ... [详细]
  • 推荐系统遇上深度学习(十七)详解推荐系统中的常用评测指标
    原创:石晓文小小挖掘机2018-06-18笔者是一个痴迷于挖掘数据中的价值的学习人,希望在平日的工作学习中,挖掘数据的价值, ... [详细]
  • 浏览器中的异常检测算法及其在深度学习中的应用
    本文介绍了在浏览器中进行异常检测的算法,包括统计学方法和机器学习方法,并探讨了异常检测在深度学习中的应用。异常检测在金融领域的信用卡欺诈、企业安全领域的非法入侵、IT运维中的设备维护时间点预测等方面具有广泛的应用。通过使用TensorFlow.js进行异常检测,可以实现对单变量和多变量异常的检测。统计学方法通过估计数据的分布概率来计算数据点的异常概率,而机器学习方法则通过训练数据来建立异常检测模型。 ... [详细]
  • 本文介绍了腾讯最近开源的BERT推理模型TurboTransformers,该模型在推理速度上比PyTorch快1~4倍。TurboTransformers采用了分层设计的思想,通过简化问题和加速开发,实现了快速推理能力。同时,文章还探讨了PyTorch在中间层延迟和深度神经网络中存在的问题,并提出了合并计算的解决方案。 ... [详细]
  • YOLOv7基于自己的数据集从零构建模型完整训练、推理计算超详细教程
    本文介绍了关于人工智能、神经网络和深度学习的知识点,并提供了YOLOv7基于自己的数据集从零构建模型完整训练、推理计算的详细教程。文章还提到了郑州最低生活保障的话题。对于从事目标检测任务的人来说,YOLO是一个熟悉的模型。文章还提到了yolov4和yolov6的相关内容,以及选择模型的优化思路。 ... [详细]
  • EPICS Archiver Appliance存储waveform记录的尝试及资源需求分析
    本文介绍了EPICS Archiver Appliance存储waveform记录的尝试过程,并分析了其所需的资源容量。通过解决错误提示和调整内存大小,成功存储了波形数据。然后,讨论了储存环逐束团信号的意义,以及通过记录多圈的束团信号进行参数分析的可能性。波形数据的存储需求巨大,每天需要近250G,一年需要90T。然而,储存环逐束团信号具有重要意义,可以揭示出每个束团的纵向振荡频率和模式。 ... [详细]
  • 目录实现效果:实现环境实现方法一:基本思路主要代码JavaScript代码总结方法二主要代码总结方法三基本思路主要代码JavaScriptHTML总结实 ... [详细]
  • baresip android编译、运行教程1语音通话
    本文介绍了如何在安卓平台上编译和运行baresip android,包括下载相关的sdk和ndk,修改ndk路径和输出目录,以及创建一个c++的安卓工程并将目录考到cpp下。详细步骤可参考给出的链接和文档。 ... [详细]
  • [大整数乘法] java代码实现
    本文介绍了使用java代码实现大整数乘法的过程,同时也涉及到大整数加法和大整数减法的计算方法。通过分治算法来提高计算效率,并对算法的时间复杂度进行了研究。详细代码实现请参考文章链接。 ... [详细]
  • 深度学习中的Vision Transformer (ViT)详解
    本文详细介绍了深度学习中的Vision Transformer (ViT)方法。首先介绍了相关工作和ViT的基本原理,包括图像块嵌入、可学习的嵌入、位置嵌入和Transformer编码器等。接着讨论了ViT的张量维度变化、归纳偏置与混合架构、微调及更高分辨率等方面。最后给出了实验结果和相关代码的链接。本文的研究表明,对于CV任务,直接应用纯Transformer架构于图像块序列是可行的,无需依赖于卷积网络。 ... [详细]
  • 本文讨论了一个数列求和问题,该数列按照一定规律生成。通过观察数列的规律,我们可以得出求解该问题的算法。具体算法为计算前n项i*f[i]的和,其中f[i]表示数列中有i个数字。根据参考的思路,我们可以将算法的时间复杂度控制在O(n),即计算到5e5即可满足1e9的要求。 ... [详细]
  • SpringMVC接收请求参数的方式总结
    本文总结了在SpringMVC开发中处理控制器参数的各种方式,包括处理使用@RequestParam注解的参数、MultipartFile类型参数和Simple类型参数的RequestParamMethodArgumentResolver,处理@RequestBody注解的参数的RequestResponseBodyMethodProcessor,以及PathVariableMapMethodArgumentResol等子类。 ... [详细]
  • 本文介绍了Python语言程序设计中文件和数据格式化的操作,包括使用np.savetext保存文本文件,对文本文件和二进制文件进行统一的操作步骤,以及使用Numpy模块进行数据可视化编程的指南。同时还提供了一些关于Python的测试题。 ... [详细]
  • {moduleinfo:{card_count:[{count_phone:1,count:1}],search_count:[{count_phone:4 ... [详细]
author-avatar
村头的小路_157
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有