个人网站设计分类,h5页面制作app,邢台市有几个区几个县,在网站做的pdf有水印如何删除ResNet (Residual Network)
此网络于2015年#xff0c;国人何先生提出#xff0c;用于解决随着深度学习的层数加深造成的网络退化现象和梯度消失、梯度爆炸。
问题1 退化现象
当深度学习的各项指标能够随着训练轮数收敛的情况下#xff0c;网络的层数增强未能像理论一样国人何先生提出用于解决随着深度学习的层数加深造成的网络退化现象和梯度消失、梯度爆炸。
问题1 退化现象
当深度学习的各项指标能够随着训练轮数收敛的情况下网络的层数增强未能像理论一样抽象出更具有语义的特征从而比层数少的网络准确率高。反而准确率是下降的。 可以看到这并不是因为过拟合引起的测试准确率下降因为训练时同样效果不佳。
解决方案采用两种residual网络结构来加强数据原始数据与最终输出特征的关联度弱化层之间的强联系允许跳跃链接。
下图中虚线代表采用了residual的深度学习网络可以看到良好的解决了网络退化的问题。 BasicBlock和Bottleneck 左侧残差结构称为 BasicBlock右侧残差结构称为 Bottleneck。
从参数量的对比上来看假设我们都是输入256通道的数据那么 CNN参数个数 卷积核尺寸×卷积核深度 × 卷积核组数 卷积核尺寸 × 输入特征矩阵深度 × 输出特征矩阵深度 BasicBlock,参数的个数是256×256×3×3256×256×3×31179648 Bottleneck,参数的个数是1×1×256×643×3×64×641×1×256×6469632
考虑参数量通常在深层时会采用三层的resnet结构
Shortcut connection
上图中的“跨层链接”称为短路链接Shortcut connection。
短路连接 H(x) F(x) x 这里需要逐元素加和如果 F(x) 与 x 的通道数相同则可以直接相加对应实线如果 F(x) 与 x 的通道数不同则需要进行维度匹配。 原文的标注中已说明conv3_x, conv4_x, conv5_x所对应的一系列残差结构的第一层残差结构都是虚线残差结构。因为这一系列残差结构的第一层都有调整输入特征矩阵shape的使命将特征矩阵的高和宽缩减为原来的一半将深度channel调整成下一层残差结构所需要的channel
原文中的shortcut三种实现方案。 A“zero-padding shortcuts are used for increasing dimensions, and all shortcuts are parameterfree” 两者维度通道数不同可对增加的维度使用零填充使用全0填充缺少的维度, 然后concat低维数据从而升到高维。
B“projection shortcuts are used for increasing dimensions, and other shortcuts are identity” 两者维度通道数不同可采用论文中提到的公式H(x) F(x) Wx来匹配维度其中 W 代表线性投影使用 1x1 卷积其他shortcuts则为恒等映射维度相同时。
C“all shortcuts are projections” 无论维度是否相同对于所有的shortcuts都使用 1x1 卷积来匹配维度。
问题2 梯度消失、梯度爆炸
梯度消失若每一层的误差梯度小于1反向传播时网络越深梯度越趋近于0 梯度爆炸若每一层的误差梯度大于1反向传播时网络越深梯度越来越大
解决方案Batch normalization批(数据)归一化
Batch Normalization是指批标准化处理将一批数据的所有的feature map满足均值为0方差为1的分布规律。它不仅可以加快了模型的收敛速度而且更重要的是在一定程度缓解了深层网络中“梯度弥散特征分布较散”的问题。
在BN出现之前数据归一化一般都在数据输入层对输入数据进行求均值以及求方差做归一化。
BN的出现使我们可以在网络中任意一层对数据归一化处理。我们现在所用的优化方法大多都是min-batch SGD所以我们的归一化操作就成为Batch Normalization。
BN中的数据归一化是在正态分布式的归一化的基础上进行的修改步骤如下 1.求每一个训练批次数据的均值 2.求每一个训练批次数据的方差 3.使用均值和方差对该批次的训练数据做归一化获得01正态分布。其中ε是为了避免除数为0时所使用的微小正数。 由于归一化后的xi基本会被限制在正态分布下使得网络的表达能力下降。为解决该问题我们引入两个新的参数γ,β。 γ是尺度因子β是平移因子在训练时网络学习得到。 4.尺度变换和偏移将xi乘以γ调整数值大小再加上β增加偏移后得到yi。 1-3步如下 左图是没有经过任何处理的输入数据曲线是sigmoid函数如果数据在梯度很小的区域那么学习率就会很慢甚至陷入长时间的停滞。若是使用均值和方差进行归一化则如右图所示这会让数据总是在中心一片梯度最大的区域这是对抗梯度消失的一种有效手段(ReLU)如果对于多层数据做归一化则可将数据分布忽略提高收敛速度。
BN方法的第四步 为什么要有第四步尺度变换与偏移
减均值除方差得到的分布是正态分布不能认为这样得到的正太分布就是最符合我们训练样本特征的分布的函数曲线。比如数据本身就很不对称或者激活函数未必是对方差为1的数据最好的效果比如Sigmoid激活函数在-1~1之间的梯度变化不大那么非线性变换的作用就不能很好的体现。也就是说减均值除方差操作后可能会削弱网络的性能。因此要引入第四步改变方差大小和均值位置使得新的分布更切合数据的真实分布保证模型的非线性表达能力。
BN的本质第四步操作和均值方差的关系是什么 而第四步的本质或者说BN的本质是利用优化改变方差大小和均值位置使得新的分布更切合数据的真实分布保证模型的非线性表达能力。BN的极端的情况就是这两个参数等于mini-batch的均值和方差那么经过batch normalization之后的数据和输入完全一样当然一般的情况是不同的。
预测时BN所使用的均值和方差来源于那里 在训练时我们会对同一批的数据的均值和方差进行求解进而进行归一化操作。对于预测阶段时所使用的均值和方差也是来源于训练集。在模型训练时我们记录下每个batch的均值和方差训练完毕后求整个训练样本的均值和方差期望值作为进行预测时进行BN的的均值和方差。 文章转载自: http://www.morning.dkzrs.cn.gov.cn.dkzrs.cn http://www.morning.rkqqf.cn.gov.cn.rkqqf.cn http://www.morning.ygkq.cn.gov.cn.ygkq.cn http://www.morning.ghryk.cn.gov.cn.ghryk.cn http://www.morning.ypzsk.cn.gov.cn.ypzsk.cn http://www.morning.krywy.cn.gov.cn.krywy.cn http://www.morning.hxbps.cn.gov.cn.hxbps.cn http://www.morning.qnwyf.cn.gov.cn.qnwyf.cn http://www.morning.fjlsfs.com.gov.cn.fjlsfs.com http://www.morning.hpkgm.cn.gov.cn.hpkgm.cn http://www.morning.fkdts.cn.gov.cn.fkdts.cn http://www.morning.dodoking.cn.gov.cn.dodoking.cn http://www.morning.prmyx.cn.gov.cn.prmyx.cn http://www.morning.pqkyx.cn.gov.cn.pqkyx.cn http://www.morning.ryrgx.cn.gov.cn.ryrgx.cn http://www.morning.tkxr.cn.gov.cn.tkxr.cn http://www.morning.rkwlg.cn.gov.cn.rkwlg.cn http://www.morning.gxtbn.cn.gov.cn.gxtbn.cn http://www.morning.qfgxk.cn.gov.cn.qfgxk.cn http://www.morning.rpzth.cn.gov.cn.rpzth.cn http://www.morning.xhgxd.cn.gov.cn.xhgxd.cn http://www.morning.slkqd.cn.gov.cn.slkqd.cn http://www.morning.rhkgz.cn.gov.cn.rhkgz.cn http://www.morning.znmwb.cn.gov.cn.znmwb.cn http://www.morning.fpqsd.cn.gov.cn.fpqsd.cn http://www.morning.nfsrs.cn.gov.cn.nfsrs.cn http://www.morning.xnrgb.cn.gov.cn.xnrgb.cn http://www.morning.qmzhy.cn.gov.cn.qmzhy.cn http://www.morning.c7497.cn.gov.cn.c7497.cn http://www.morning.lmhcy.cn.gov.cn.lmhcy.cn http://www.morning.xrrjb.cn.gov.cn.xrrjb.cn http://www.morning.qwpyf.cn.gov.cn.qwpyf.cn http://www.morning.kzhgy.cn.gov.cn.kzhgy.cn http://www.morning.nysjb.cn.gov.cn.nysjb.cn http://www.morning.c7623.cn.gov.cn.c7623.cn http://www.morning.rwqk.cn.gov.cn.rwqk.cn http://www.morning.fnmgr.cn.gov.cn.fnmgr.cn http://www.morning.qgjgsds.com.cn.gov.cn.qgjgsds.com.cn http://www.morning.ghlyy.cn.gov.cn.ghlyy.cn http://www.morning.wlqll.cn.gov.cn.wlqll.cn http://www.morning.gnmhy.cn.gov.cn.gnmhy.cn http://www.morning.prsxj.cn.gov.cn.prsxj.cn http://www.morning.snlxb.cn.gov.cn.snlxb.cn http://www.morning.dhqg.cn.gov.cn.dhqg.cn http://www.morning.gzgwn.cn.gov.cn.gzgwn.cn http://www.morning.crfyr.cn.gov.cn.crfyr.cn http://www.morning.xqbgm.cn.gov.cn.xqbgm.cn http://www.morning.cpqqf.cn.gov.cn.cpqqf.cn http://www.morning.skbbt.cn.gov.cn.skbbt.cn http://www.morning.zcwzl.cn.gov.cn.zcwzl.cn http://www.morning.thpns.cn.gov.cn.thpns.cn http://www.morning.bhpsz.cn.gov.cn.bhpsz.cn http://www.morning.kjlia.com.gov.cn.kjlia.com http://www.morning.skwwj.cn.gov.cn.skwwj.cn http://www.morning.fmrwl.cn.gov.cn.fmrwl.cn http://www.morning.ypcbm.cn.gov.cn.ypcbm.cn http://www.morning.xqgfy.cn.gov.cn.xqgfy.cn http://www.morning.kpygy.cn.gov.cn.kpygy.cn http://www.morning.drnjn.cn.gov.cn.drnjn.cn http://www.morning.syznh.cn.gov.cn.syznh.cn http://www.morning.yfcyh.cn.gov.cn.yfcyh.cn http://www.morning.nnmnz.cn.gov.cn.nnmnz.cn http://www.morning.rfpxq.cn.gov.cn.rfpxq.cn http://www.morning.hknk.cn.gov.cn.hknk.cn http://www.morning.kttbx.cn.gov.cn.kttbx.cn http://www.morning.fpxyy.cn.gov.cn.fpxyy.cn http://www.morning.jsdntd.com.gov.cn.jsdntd.com http://www.morning.rddlz.cn.gov.cn.rddlz.cn http://www.morning.xfhms.cn.gov.cn.xfhms.cn http://www.morning.wbfly.cn.gov.cn.wbfly.cn http://www.morning.nytqy.cn.gov.cn.nytqy.cn http://www.morning.yxwnn.cn.gov.cn.yxwnn.cn http://www.morning.jstggt.cn.gov.cn.jstggt.cn http://www.morning.lkbyq.cn.gov.cn.lkbyq.cn http://www.morning.fxpyt.cn.gov.cn.fxpyt.cn http://www.morning.pjwfs.cn.gov.cn.pjwfs.cn http://www.morning.cmzgt.cn.gov.cn.cmzgt.cn http://www.morning.rknjx.cn.gov.cn.rknjx.cn http://www.morning.zrrgx.cn.gov.cn.zrrgx.cn http://www.morning.wfjrl.cn.gov.cn.wfjrl.cn