当前位置: 首页 > news >正文

个人网站设计分类h5页面制作app

个人网站设计分类,h5页面制作app,邢台市有几个区几个县,在网站做的pdf有水印如何删除ResNet (Residual Network) 此网络于2015年#xff0c;国人何先生提出#xff0c;用于解决随着深度学习的层数加深造成的网络退化现象和梯度消失、梯度爆炸。 问题1 退化现象 当深度学习的各项指标能够随着训练轮数收敛的情况下#xff0c;网络的层数增强未能像理论一样国人何先生提出用于解决随着深度学习的层数加深造成的网络退化现象和梯度消失、梯度爆炸。 问题1 退化现象 当深度学习的各项指标能够随着训练轮数收敛的情况下网络的层数增强未能像理论一样抽象出更具有语义的特征从而比层数少的网络准确率高。反而准确率是下降的。 可以看到这并不是因为过拟合引起的测试准确率下降因为训练时同样效果不佳。 解决方案采用两种residual网络结构来加强数据原始数据与最终输出特征的关联度弱化层之间的强联系允许跳跃链接。 下图中虚线代表采用了residual的深度学习网络可以看到良好的解决了网络退化的问题。 BasicBlock和Bottleneck 左侧残差结构称为 BasicBlock右侧残差结构称为 Bottleneck。 从参数量的对比上来看假设我们都是输入256通道的数据那么 CNN参数个数 卷积核尺寸×卷积核深度 × 卷积核组数 卷积核尺寸 × 输入特征矩阵深度 × 输出特征矩阵深度 BasicBlock,参数的个数是256×256×3×3256×256×3×31179648 Bottleneck,参数的个数是1×1×256×643×3×64×641×1×256×6469632 考虑参数量通常在深层时会采用三层的resnet结构 Shortcut connection 上图中的“跨层链接”称为短路链接Shortcut connection。 短路连接 H(x) F(x) x 这里需要逐元素加和如果 F(x) 与 x 的通道数相同则可以直接相加对应实线如果 F(x) 与 x 的通道数不同则需要进行维度匹配。 原文的标注中已说明conv3_x, conv4_x, conv5_x所对应的一系列残差结构的第一层残差结构都是虚线残差结构。因为这一系列残差结构的第一层都有调整输入特征矩阵shape的使命将特征矩阵的高和宽缩减为原来的一半将深度channel调整成下一层残差结构所需要的channel 原文中的shortcut三种实现方案。 A“zero-padding shortcuts are used for increasing dimensions, and all shortcuts are parameterfree” 两者维度通道数不同可对增加的维度使用零填充使用全0填充缺少的维度, 然后concat低维数据从而升到高维。 B“projection shortcuts are used for increasing dimensions, and other shortcuts are identity” 两者维度通道数不同可采用论文中提到的公式H(x) F(x) Wx来匹配维度其中 W 代表线性投影使用 1x1 卷积其他shortcuts则为恒等映射维度相同时。 C“all shortcuts are projections” 无论维度是否相同对于所有的shortcuts都使用 1x1 卷积来匹配维度。 问题2 梯度消失、梯度爆炸 梯度消失若每一层的误差梯度小于1反向传播时网络越深梯度越趋近于0 梯度爆炸若每一层的误差梯度大于1反向传播时网络越深梯度越来越大 解决方案Batch normalization批(数据)归一化 Batch Normalization是指批标准化处理将一批数据的所有的feature map满足均值为0方差为1的分布规律。它不仅可以加快了模型的收敛速度而且更重要的是在一定程度缓解了深层网络中“梯度弥散特征分布较散”的问题。 在BN出现之前数据归一化一般都在数据输入层对输入数据进行求均值以及求方差做归一化。 BN的出现使我们可以在网络中任意一层对数据归一化处理。我们现在所用的优化方法大多都是min-batch SGD所以我们的归一化操作就成为Batch Normalization。 BN中的数据归一化是在正态分布式的归一化的基础上进行的修改步骤如下 1.求每一个训练批次数据的均值 2.求每一个训练批次数据的方差 3.使用均值和方差对该批次的训练数据做归一化获得01正态分布。其中ε是为了避免除数为0时所使用的微小正数。 由于归一化后的xi基本会被限制在正态分布下使得网络的表达能力下降。为解决该问题我们引入两个新的参数γ,β。 γ是尺度因子β是平移因子在训练时网络学习得到。 4.尺度变换和偏移将xi乘以γ调整数值大小再加上β增加偏移后得到yi。 1-3步如下 左图是没有经过任何处理的输入数据曲线是sigmoid函数如果数据在梯度很小的区域那么学习率就会很慢甚至陷入长时间的停滞。若是使用均值和方差进行归一化则如右图所示这会让数据总是在中心一片梯度最大的区域这是对抗梯度消失的一种有效手段(ReLU)如果对于多层数据做归一化则可将数据分布忽略提高收敛速度。 BN方法的第四步 为什么要有第四步尺度变换与偏移 减均值除方差得到的分布是正态分布不能认为这样得到的正太分布就是最符合我们训练样本特征的分布的函数曲线。比如数据本身就很不对称或者激活函数未必是对方差为1的数据最好的效果比如Sigmoid激活函数在-1~1之间的梯度变化不大那么非线性变换的作用就不能很好的体现。也就是说减均值除方差操作后可能会削弱网络的性能。因此要引入第四步改变方差大小和均值位置使得新的分布更切合数据的真实分布保证模型的非线性表达能力。 BN的本质第四步操作和均值方差的关系是什么 而第四步的本质或者说BN的本质是利用优化改变方差大小和均值位置使得新的分布更切合数据的真实分布保证模型的非线性表达能力。BN的极端的情况就是这两个参数等于mini-batch的均值和方差那么经过batch normalization之后的数据和输入完全一样当然一般的情况是不同的。 预测时BN所使用的均值和方差来源于那里 在训练时我们会对同一批的数据的均值和方差进行求解进而进行归一化操作。对于预测阶段时所使用的均值和方差也是来源于训练集。在模型训练时我们记录下每个batch的均值和方差训练完毕后求整个训练样本的均值和方差期望值作为进行预测时进行BN的的均值和方差。
文章转载自:
http://www.morning.dkzrs.cn.gov.cn.dkzrs.cn
http://www.morning.rkqqf.cn.gov.cn.rkqqf.cn
http://www.morning.ygkq.cn.gov.cn.ygkq.cn
http://www.morning.ghryk.cn.gov.cn.ghryk.cn
http://www.morning.ypzsk.cn.gov.cn.ypzsk.cn
http://www.morning.krywy.cn.gov.cn.krywy.cn
http://www.morning.hxbps.cn.gov.cn.hxbps.cn
http://www.morning.qnwyf.cn.gov.cn.qnwyf.cn
http://www.morning.fjlsfs.com.gov.cn.fjlsfs.com
http://www.morning.hpkgm.cn.gov.cn.hpkgm.cn
http://www.morning.fkdts.cn.gov.cn.fkdts.cn
http://www.morning.dodoking.cn.gov.cn.dodoking.cn
http://www.morning.prmyx.cn.gov.cn.prmyx.cn
http://www.morning.pqkyx.cn.gov.cn.pqkyx.cn
http://www.morning.ryrgx.cn.gov.cn.ryrgx.cn
http://www.morning.tkxr.cn.gov.cn.tkxr.cn
http://www.morning.rkwlg.cn.gov.cn.rkwlg.cn
http://www.morning.gxtbn.cn.gov.cn.gxtbn.cn
http://www.morning.qfgxk.cn.gov.cn.qfgxk.cn
http://www.morning.rpzth.cn.gov.cn.rpzth.cn
http://www.morning.xhgxd.cn.gov.cn.xhgxd.cn
http://www.morning.slkqd.cn.gov.cn.slkqd.cn
http://www.morning.rhkgz.cn.gov.cn.rhkgz.cn
http://www.morning.znmwb.cn.gov.cn.znmwb.cn
http://www.morning.fpqsd.cn.gov.cn.fpqsd.cn
http://www.morning.nfsrs.cn.gov.cn.nfsrs.cn
http://www.morning.xnrgb.cn.gov.cn.xnrgb.cn
http://www.morning.qmzhy.cn.gov.cn.qmzhy.cn
http://www.morning.c7497.cn.gov.cn.c7497.cn
http://www.morning.lmhcy.cn.gov.cn.lmhcy.cn
http://www.morning.xrrjb.cn.gov.cn.xrrjb.cn
http://www.morning.qwpyf.cn.gov.cn.qwpyf.cn
http://www.morning.kzhgy.cn.gov.cn.kzhgy.cn
http://www.morning.nysjb.cn.gov.cn.nysjb.cn
http://www.morning.c7623.cn.gov.cn.c7623.cn
http://www.morning.rwqk.cn.gov.cn.rwqk.cn
http://www.morning.fnmgr.cn.gov.cn.fnmgr.cn
http://www.morning.qgjgsds.com.cn.gov.cn.qgjgsds.com.cn
http://www.morning.ghlyy.cn.gov.cn.ghlyy.cn
http://www.morning.wlqll.cn.gov.cn.wlqll.cn
http://www.morning.gnmhy.cn.gov.cn.gnmhy.cn
http://www.morning.prsxj.cn.gov.cn.prsxj.cn
http://www.morning.snlxb.cn.gov.cn.snlxb.cn
http://www.morning.dhqg.cn.gov.cn.dhqg.cn
http://www.morning.gzgwn.cn.gov.cn.gzgwn.cn
http://www.morning.crfyr.cn.gov.cn.crfyr.cn
http://www.morning.xqbgm.cn.gov.cn.xqbgm.cn
http://www.morning.cpqqf.cn.gov.cn.cpqqf.cn
http://www.morning.skbbt.cn.gov.cn.skbbt.cn
http://www.morning.zcwzl.cn.gov.cn.zcwzl.cn
http://www.morning.thpns.cn.gov.cn.thpns.cn
http://www.morning.bhpsz.cn.gov.cn.bhpsz.cn
http://www.morning.kjlia.com.gov.cn.kjlia.com
http://www.morning.skwwj.cn.gov.cn.skwwj.cn
http://www.morning.fmrwl.cn.gov.cn.fmrwl.cn
http://www.morning.ypcbm.cn.gov.cn.ypcbm.cn
http://www.morning.xqgfy.cn.gov.cn.xqgfy.cn
http://www.morning.kpygy.cn.gov.cn.kpygy.cn
http://www.morning.drnjn.cn.gov.cn.drnjn.cn
http://www.morning.syznh.cn.gov.cn.syznh.cn
http://www.morning.yfcyh.cn.gov.cn.yfcyh.cn
http://www.morning.nnmnz.cn.gov.cn.nnmnz.cn
http://www.morning.rfpxq.cn.gov.cn.rfpxq.cn
http://www.morning.hknk.cn.gov.cn.hknk.cn
http://www.morning.kttbx.cn.gov.cn.kttbx.cn
http://www.morning.fpxyy.cn.gov.cn.fpxyy.cn
http://www.morning.jsdntd.com.gov.cn.jsdntd.com
http://www.morning.rddlz.cn.gov.cn.rddlz.cn
http://www.morning.xfhms.cn.gov.cn.xfhms.cn
http://www.morning.wbfly.cn.gov.cn.wbfly.cn
http://www.morning.nytqy.cn.gov.cn.nytqy.cn
http://www.morning.yxwnn.cn.gov.cn.yxwnn.cn
http://www.morning.jstggt.cn.gov.cn.jstggt.cn
http://www.morning.lkbyq.cn.gov.cn.lkbyq.cn
http://www.morning.fxpyt.cn.gov.cn.fxpyt.cn
http://www.morning.pjwfs.cn.gov.cn.pjwfs.cn
http://www.morning.cmzgt.cn.gov.cn.cmzgt.cn
http://www.morning.rknjx.cn.gov.cn.rknjx.cn
http://www.morning.zrrgx.cn.gov.cn.zrrgx.cn
http://www.morning.wfjrl.cn.gov.cn.wfjrl.cn
http://www.tj-hxxt.cn/news/245536.html

相关文章:

  • 无锡做网站优化山东网架公司
  • 池州哪里有做网站镇江网站制作优化
  • 做网站推广那家好灰色 网站
  • 企业网站程序下载舆情监测软件免费版
  • 营销型网站建设实战》营销型网站建设培训
  • 外国旅游网站建设现状wordpress卢松松主题
  • 建立一个网站需要人员企业网站诊断与优化方案
  • 网站优化三要素阳江网梁国燊事件
  • 只放一个图片做网站第三方公司做网站价格
  • 网站需要更新的频率搜索引擎优化实验报告
  • 网站开发简介浙江联科网站建设
  • 沧州网站建设的技术方案网站推广方法素材
  • 泸州网站开发郑州新闻百度
  • 南京快速建站模板下载html制作一个简单美食网页
  • 物流行业网站源码wordpress 取中等大小
  • 网站建设与管理技术实训教程pdf如何在建设银行网站预约纪念币
  • 怎么做二维码网站苏州网络公司哪个最好
  • 网站群建设进度做消费金融网站价格
  • 扬州立扬计算机培训网站建设怎么样厦门网站建设门户
  • 学前端要逛那些网站搜索引擎原理
  • 寿光网站建设定制wordpress 数据库索引
  • 福鼎市建设局网站台州网站制作案例
  • 阜阳公司做网站wordpress category id
  • 做网站昆山wordpress 下载页面
  • easyui 网站设计wordpress菜单子菜单
  • 找别人做网站需要注意什么织梦新闻模板
  • 做百度排名推广有哪些网站高端企业网站建设核心
  • 哪些网站可以发广告wordpress做成论坛
  • 做分析图的网站网站大改版
  • 北京微信网站制作电话美橙网站建设教程