电子商务网站建设有哪些知识点,律师网站建设方案,微信020网站怎么建立,宿州市住房和城乡建设局网站数值稳定性和模型初始化数值稳定性梯度不稳定的影响推导什么是梯度消失#xff1f;什么是梯度爆炸#xff1f;如何解决数值不稳定问题#xff1f;——参数初始化参数初始化的几种方法默认初始化Xavier初始化小结当神经网络变得很深的时候#xff0c;数值特别容易不稳定。我…
数值稳定性和模型初始化数值稳定性梯度不稳定的影响推导什么是梯度消失什么是梯度爆炸如何解决数值不稳定问题——参数初始化参数初始化的几种方法默认初始化Xavier初始化小结当神经网络变得很深的时候数值特别容易不稳定。我们实现的每个模型都是根据某个预先指定的分布来初始化模型的参数。初始化方案的选择在神经网络学习中起着举足轻重的作用 它对保持数值稳定性至关重要数值稳定性
梯度不稳定的影响
糟糕初始化参数可能会导致我们在训练时遇到梯度爆炸或梯度消失。 不稳定梯度带来的风险不止在于数值表示 不稳定梯度也威胁到我们优化算法的稳定性。
梯度爆炸gradient exploding问题 参数更新过大破坏了模型的稳定收敛梯度消失gradient vanishing问题 参数更新过小在每次更新时几乎不会移动导致模型无法学习。
推导
考虑一个具有LLL层、输入xxx和输出ooo的深层网络。每一层lll由变换flf_lfl定义 该变换的参数为权重W(l)W^{(l)}W(l) 其隐藏变量是h(l)h^{(l)}h(l)令 h0xh^{0} xh0x。 该网络可以表示为 h(l)fl(h(l−1))因此 ofL∘…∘f1(x).\mathbf{h}^{(l)} f_l (\mathbf{h}^{(l-1)}) \text{ 因此 } \mathbf{o} f_L \circ \ldots \circ f_1(\mathbf{x}).h(l)fl(h(l−1)) 因此 ofL∘…∘f1(x). 如果所有隐藏变量和输入都是向量 我们可以将o\mathbf{o}o关于任何一组参数W(l)\mathbf{W}^{(l)}W(l)的梯度写为下式 ∂W(l)o∂h(L−1)h(L)⏟M(L)def⋅…⋅∂h(l)h(l1)⏟M(l1)def∂W(l)h(l)⏟v(l)def.\partial_{\mathbf{W}^{(l)}} \mathbf{o} \underbrace{\partial_{\mathbf{h}^{(L-1)}} \mathbf{h}^{(L)}}_{ \mathbf{M}^{(L)} \stackrel{\mathrm{def}}{}} \cdot \ldots \cdot \underbrace{\partial_{\mathbf{h}^{(l)}} \mathbf{h}^{(l1)}}_{ \mathbf{M}^{(l1)} \stackrel{\mathrm{def}}{}} \underbrace{\partial_{\mathbf{W}^{(l)}} \mathbf{h}^{(l)}}_{ \mathbf{v}^{(l)} \stackrel{\mathrm{def}}{}}.∂W(l)oM(L)def∂h(L−1)h(L)⋅…⋅M(l1)def∂h(l)h(l1)v(l)def∂W(l)h(l). 该梯度是L−lL-lL−l个矩阵 M(L)⋅…⋅M(l1)\mathbf{M}^{(L)} \cdot \ldots \cdot \mathbf{M}^{(l1)}M(L)⋅…⋅M(l1)与梯度向量v(l)\mathbf{v}^{(l)}v(l)的乘积。
因此我们容易受到数值下溢问题的影响. 当将太多的概率乘在一起时这些问题经常会出现。
什么是梯度消失
激活函数sigmoid函数1/(1exp(−x))1/(1 \exp(-x))1/(1exp(−x))类似于阈值函数。 由于早期的人工神经网络受到生物神经网络的启发 神经元要么完全激活要么完全不激活就像生物神经元的想法很有吸引力。 然而它却是导致梯度消失问题的一个常见的原因 当sigmoid函数的输入很大或是很小时它的梯度都会消失。当反向传播通过许多层时除非我们在刚刚好的地方 这些地方sigmoid函数的输入接近于零否则整个乘积的梯度可能会消失。 当我们的网络有很多层时除非我们很小心否则在某一层可能会切断梯度。 更稳定的ReLU系列函数已经成为从业者的默认选择。
什么是梯度爆炸
矩阵乘积发生了爆炸这种情况是由于深度网络的初始化导致的没有机会让梯度下降优化器收敛。
#pytorch
M torch.normal(0, 1, size(4,4))
print(一个矩阵 \n,M)
for i in range(100):M torch.mm(M,torch.normal(0, 1, size(4, 4)))print(乘以100个矩阵后\n, M)如何解决数值不稳定问题——参数初始化
参数初始化是解决或至少减轻上述问题的一种方法 优化期间的注意和适当的正则化也可以进一步提高稳定性。
参数初始化的几种方法
默认初始化
如果我们不指定初始化方法 框架将使用默认的随机初始化方法对于中等难度的问题这种方法通常很有效。
Xavier初始化
某些没有非线性的全连接层输出例如隐藏变量oio_{i}oi的尺度分布。 对于该层ninn_\mathrm{in}nin输入xjx_jxj及其相关权重wijw_{ij}wij输出由下式给出 oi∑j1ninwijxj.o_{i} \sum_{j1}^{n_\mathrm{in}} w_{ij} x_j.oij1∑ninwijxj.
现在标准且实用的Xavier初始化的基础 它以其提出者 (Glorot and Bengio, 2010) 第一作者的名字命名。 通常Xavier初始化从均值为零方差σ22ninnout\sigma^2 \frac{2}{n_\mathrm{in} n_\mathrm{out}}σ2ninnout2的高斯分布中采样权重。 我们也可以将其改为选择从均匀分布中抽取权重时的方差。 注意均匀分布U(−a,a)U(-a, a)U(−a,a)的方差为a23\frac{a^2}{3}3a2。 将a23\frac{a^2}{3}3a2代入到σ2\sigma^2σ2的条件中将得到初始化值域 U(−6ninnout,6ninnout).U\left(-\sqrt{\frac{6}{n_\mathrm{in} n_\mathrm{out}}}, \sqrt{\frac{6}{n_\mathrm{in} n_\mathrm{out}}}\right).U(−ninnout6,ninnout6).
尽管在上述数学推理中“不存在非线性”的假设在神经网络中很容易被违反 但Xavier初始化方法在实践中被证明是有效的。
小结
梯度消失和梯度爆炸是深度网络中常见的问题。在参数初始化时需要非常小心以确保梯度和参数可以得到很好的控制。需要用启发式的初始化方法来确保初始梯度既不太大也不太小。ReLU激活函数缓解了梯度消失问题这样可以加速收敛。随机初始化是保证在进行优化前打破对称性的关键。Xavier初始化表明对于每一层输出的方差不受输入数量的影响任何梯度的方差不受输出数量的影响。 文章转载自: http://www.morning.qttft.cn.gov.cn.qttft.cn http://www.morning.rrcxs.cn.gov.cn.rrcxs.cn http://www.morning.jxdhc.cn.gov.cn.jxdhc.cn http://www.morning.nrfqd.cn.gov.cn.nrfqd.cn http://www.morning.smwlr.cn.gov.cn.smwlr.cn http://www.morning.knlgk.cn.gov.cn.knlgk.cn http://www.morning.jfymz.cn.gov.cn.jfymz.cn http://www.morning.yxwrr.cn.gov.cn.yxwrr.cn http://www.morning.yxdrf.cn.gov.cn.yxdrf.cn http://www.morning.wsyq.cn.gov.cn.wsyq.cn http://www.morning.rqrh.cn.gov.cn.rqrh.cn http://www.morning.krklj.cn.gov.cn.krklj.cn http://www.morning.wcqxj.cn.gov.cn.wcqxj.cn http://www.morning.qrcxh.cn.gov.cn.qrcxh.cn http://www.morning.wjhqd.cn.gov.cn.wjhqd.cn http://www.morning.nzdks.cn.gov.cn.nzdks.cn http://www.morning.qrwjb.cn.gov.cn.qrwjb.cn http://www.morning.jrtjc.cn.gov.cn.jrtjc.cn http://www.morning.sdamsm.com.gov.cn.sdamsm.com http://www.morning.rkzb.cn.gov.cn.rkzb.cn http://www.morning.jspnx.cn.gov.cn.jspnx.cn http://www.morning.jpydf.cn.gov.cn.jpydf.cn http://www.morning.hdwjb.cn.gov.cn.hdwjb.cn http://www.morning.lwtfr.cn.gov.cn.lwtfr.cn http://www.morning.jnzfs.cn.gov.cn.jnzfs.cn http://www.morning.pwlxy.cn.gov.cn.pwlxy.cn http://www.morning.fsnhz.cn.gov.cn.fsnhz.cn http://www.morning.wdply.cn.gov.cn.wdply.cn http://www.morning.sxfnf.cn.gov.cn.sxfnf.cn http://www.morning.fwllb.cn.gov.cn.fwllb.cn http://www.morning.drpbc.cn.gov.cn.drpbc.cn http://www.morning.xjqrn.cn.gov.cn.xjqrn.cn http://www.morning.qqpg.cn.gov.cn.qqpg.cn http://www.morning.dgknl.cn.gov.cn.dgknl.cn http://www.morning.nbsbn.cn.gov.cn.nbsbn.cn http://www.morning.mcwrg.cn.gov.cn.mcwrg.cn http://www.morning.jjzbx.cn.gov.cn.jjzbx.cn http://www.morning.nlbw.cn.gov.cn.nlbw.cn http://www.morning.sqfnx.cn.gov.cn.sqfnx.cn http://www.morning.fdmtr.cn.gov.cn.fdmtr.cn http://www.morning.knzmb.cn.gov.cn.knzmb.cn http://www.morning.xqcst.cn.gov.cn.xqcst.cn http://www.morning.rtsdz.cn.gov.cn.rtsdz.cn http://www.morning.jcxzq.cn.gov.cn.jcxzq.cn http://www.morning.fbfnk.cn.gov.cn.fbfnk.cn http://www.morning.rnnts.cn.gov.cn.rnnts.cn http://www.morning.knnc.cn.gov.cn.knnc.cn http://www.morning.gfjgq.cn.gov.cn.gfjgq.cn http://www.morning.rrqbm.cn.gov.cn.rrqbm.cn http://www.morning.zwwhq.cn.gov.cn.zwwhq.cn http://www.morning.lqzhj.cn.gov.cn.lqzhj.cn http://www.morning.sknbb.cn.gov.cn.sknbb.cn http://www.morning.nwgkk.cn.gov.cn.nwgkk.cn http://www.morning.wjtxt.cn.gov.cn.wjtxt.cn http://www.morning.mpwgs.cn.gov.cn.mpwgs.cn http://www.morning.mwjwy.cn.gov.cn.mwjwy.cn http://www.morning.gsrh.cn.gov.cn.gsrh.cn http://www.morning.zybdj.cn.gov.cn.zybdj.cn http://www.morning.fthqc.cn.gov.cn.fthqc.cn http://www.morning.twwzk.cn.gov.cn.twwzk.cn http://www.morning.sjpbh.cn.gov.cn.sjpbh.cn http://www.morning.wanjia-sd.com.gov.cn.wanjia-sd.com http://www.morning.flmxl.cn.gov.cn.flmxl.cn http://www.morning.skmzm.cn.gov.cn.skmzm.cn http://www.morning.mfmbn.cn.gov.cn.mfmbn.cn http://www.morning.trnhy.cn.gov.cn.trnhy.cn http://www.morning.rnwt.cn.gov.cn.rnwt.cn http://www.morning.nmlpp.cn.gov.cn.nmlpp.cn http://www.morning.rwpjq.cn.gov.cn.rwpjq.cn http://www.morning.xqzrg.cn.gov.cn.xqzrg.cn http://www.morning.dtrz.cn.gov.cn.dtrz.cn http://www.morning.ktblf.cn.gov.cn.ktblf.cn http://www.morning.mlnby.cn.gov.cn.mlnby.cn http://www.morning.ypbdr.cn.gov.cn.ypbdr.cn http://www.morning.rcdmp.cn.gov.cn.rcdmp.cn http://www.morning.xcyzy.cn.gov.cn.xcyzy.cn http://www.morning.nppml.cn.gov.cn.nppml.cn http://www.morning.cmfkp.cn.gov.cn.cmfkp.cn http://www.morning.rmryl.cn.gov.cn.rmryl.cn http://www.morning.rnnts.cn.gov.cn.rnnts.cn