当前位置: 首页 > news >正文

北京网站seo价格wordpress标签添加内链插件

北京网站seo价格,wordpress标签添加内链插件,wordpress不能更改邮箱,个人网站开发主要问题批标准化#xff08;Batch Normalization#xff0c;简称BN#xff09;是一种用于深度神经网络的技术#xff0c;它的主要目的是解决深度学习模型训练过程中的内部协变量偏移问题。简单来说#xff0c;当我们在训练深度神经网络时#xff0c;每一层的输入分布都可能会随着…批标准化Batch Normalization简称BN是一种用于深度神经网络的技术它的主要目的是解决深度学习模型训练过程中的内部协变量偏移问题。简单来说当我们在训练深度神经网络时每一层的输入分布都可能会随着前一层参数的更新而发生变化这种变化会导致训练过程变得不稳定。BN通过对每一层的输入进行标准化使其均值为0方差为1从而使得网络在每一层都能接收到相对稳定的数据分布。 BatchNorm1d 对2d或3d数据进行批标准化Batch Normlization操作: class torch.nn.BatchNorm1d(num_features, eps1e-05, momentum0.1, affineTrue):参数 1.num_features特征的维度 ( N , L ) − L ; ( N , C , L ) − C (N,L) - L ;(N,C,L) - C (N,L)−L;(N,C,L)−C 2.eps在分母上添加一个定值不能趋近于0 3.momentum动态均值和动态方差所使用的动量这里的momentum是对均值和方差进行的滑动平均。即 μ 1 1 − m o m e n t u m ∗ μ l a s t m o m e n t u m ∗ μ μ_1 1 - momentum* μ_{last} momentum * μ μ1​1−momentum∗μlast​momentum∗μ这里μ1为输出值μ_last为上一次的计算值μ为真实计算的值 4.affine布尔变量是否为该层添加可学习的仿设变换仿射变换的系数即为下式的gamma和beta 原理 计算各个维度的均值和标准差: y x − mean ⁡ [ x ] Var ⁡ [ x ] ϵ ∗ g a m m a beta  y\frac{x-\operatorname{mean}[x]}{\sqrt{\operatorname{Var}[x]}\epsilon} * g a m m a\text { beta } yVar[x] ​ϵx−mean[x]​∗gamma beta  m nn.BatchNorm1d(5, affineFalse) m1 nn.BatchNorm1d(5, affineTrue) input autograd.Variable(torch.randn(5, 5)) output m(input) output1 m1(input) print(input, \n,output,\n,output1)tensor([[-0.6046, -0.8939, 1.3246, 0.2621, 1.0777],[ 0.9088, -0.6219, 0.9589, 0.7307, 0.5221],[ 1.7435, 0.6662, -0.5827, 0.3325, -0.8179],[-0.2250, 0.9930, 0.0504, -0.4509, 1.6605],[-0.5742, 1.6543, 0.6083, 0.5746, -0.3208]]) tensor([[-0.9212, -1.2920, 1.2648, -0.0680, 0.7249],[ 0.7107, -1.0117, 0.7224, 1.0842, 0.1085],[ 1.6108, 0.3161, -1.5642, 0.1049, -1.3780],[-0.5119, 0.6530, -0.6252, -1.8215, 1.3713],[-0.8885, 1.3345, 0.2022, 0.7005, -0.8266]]) tensor([[-0.9212, -1.2920, 1.2648, -0.0680, 0.7249],[ 0.7107, -1.0117, 0.7224, 1.0842, 0.1085],[ 1.6108, 0.3161, -1.5642, 0.1049, -1.3780],[-0.5119, 0.6530, -0.6252, -1.8215, 1.3713],[-0.8885, 1.3345, 0.2022, 0.7005, -0.8266]],grad_fnNativeBatchNormBackward) BatchNorm2d 对小批量(mini-batch)3d数据组成的4d输入进行批标准化(Batch Normalization)操作 class torch.nn.BatchNorm2d(num_features, eps1e-05, momentum0.1, affineTrue):1.num_features 来自期望输入的特征数C from an expected input of size (N,C,H,W) 2.eps 为保证数值稳定性分母不能趋近或取0,给分母加上的值。默认为1e-5. 3.momentum 动态均值和动态方差所使用的动量。默认为0.1. 4.affine 一个布尔值当设为true给该层添加可学习的仿射变换参数。 原理 计算各个维度的均值和标准差: y x − mean ⁡ [ x ] Var ⁡ [ x ] ϵ ∗ g a m m a beta  y\frac{x-\operatorname{mean}[x]}{\sqrt{\operatorname{Var}[x]}\epsilon} * g a m m a\text { beta } yVar[x] ​ϵx−mean[x]​∗gamma beta  m nn.BatchNorm2d(2, affineFalse) m1 nn.BatchNorm2d(2, affineTrue) input autograd.Variable(torch.randn(1,2,5, 5)) output m(input) output1 m1(input) print(input, \n,output,\n,output1)tensor([[[[-0.2606, -0.8874, 0.8364, 0.0184, 0.8040],[ 1.0593, -0.6811, 1.3497, -0.6840, -2.0859],[-0.5399, 1.3321, -0.6281, -0.9044, 1.7491],[ 0.7559, 0.5607, -0.0447, -0.3868, 1.2404],[ 1.2078, -0.9642, 0.3980, 0.2087, -1.3940]],[[ 0.0493, 0.7372, 1.1964, 0.3862, 0.9900],[ 0.3544, 0.1767, -1.5780, 0.1642, -2.1586],[-0.4891, -0.7272, 1.6860, -1.6091, 0.9730],[-2.4161, -2.2096, 0.4617, -0.2965, -0.5663],[-0.0222, -0.7628, 0.6404, -1.4428, 0.5750]]]]) tensor([[[[-0.3522, -0.9959, 0.7743, -0.0657, 0.7410],[ 1.0032, -0.7840, 1.3015, -0.7870, -2.2266],[-0.6390, 1.2833, -0.7296, -1.0134, 1.7116],[ 0.6917, 0.4912, -0.1305, -0.4818, 1.1892],[ 1.1557, -1.0748, 0.3242, 0.1298, -1.5161]],[[ 0.2560, 0.8743, 1.2870, 0.5588, 1.1015],[ 0.5302, 0.3705, -1.2066, 0.3593, -1.7285],[-0.2280, -0.4420, 1.7271, -1.2346, 1.0862],[-1.9599, -1.7743, 0.6266, -0.0549, -0.2974],[ 0.1917, -0.4739, 0.7873, -1.0852, 0.7285]]]]) tensor([[[[-0.3522, -0.9959, 0.7743, -0.0657, 0.7410],[ 1.0032, -0.7840, 1.3015, -0.7870, -2.2266],[-0.6390, 1.2833, -0.7296, -1.0134, 1.7116],[ 0.6917, 0.4912, -0.1305, -0.4818, 1.1892],[ 1.1557, -1.0748, 0.3242, 0.1298, -1.5161]],[[ 0.2560, 0.8743, 1.2870, 0.5588, 1.1015],[ 0.5302, 0.3705, -1.2066, 0.3593, -1.7285],[-0.2280, -0.4420, 1.7271, -1.2346, 1.0862],[-1.9599, -1.7743, 0.6266, -0.0549, -0.2974],[ 0.1917, -0.4739, 0.7873, -1.0852, 0.7285]]]],grad_fnNativeBatchNormBackward)使用 用的地方通常在一个全连接或者卷积层与激活函数中间即 全连接/卷积—- BatchNorm —- 激活函数。但也有人说把 BatchNorm 放在激活函数后面效果更好可以都试一下。 BN的作用 加速训练BN可以使得网络的训练速度更快。因为经过标准化后权重的更新方向更加明确可以使用更大的学习率进行训练。正则化效果BN具有轻微的正则化效果可以在一定程度上防止模型过拟合。允许使用各种激活函数在没有BN之前某些激活函数如sigmoid和tanh在深层网络中容易导致梯度消失或梯度爆炸。但使用BN后这些问题得到了缓解因为数据分布被标准化了。 为什么要用 BN的作用 加速训练BN可以使得网络的训练速度更快。因为经过标准化后权重的更新方向更加明确可以使用更大的学习率进行训练。正则化效果BN具有轻微的正则化效果可以在一定程度上防止模型过拟合。允许使用各种激活函数在没有BN之前某些激活函数如sigmoid和tanh在深层网络中容易导致梯度消失或梯度爆炸。但使用BN后这些问题得到了缓解因为数据分布被标准化了。 参考 (31条消息) BatchNorm2d原理、作用及其pytorch中BatchNorm2d函数的参数讲解_LS_learner的博客-CSDN博客_batchnorm2d (31条消息) pytorch中批量归一化BatchNorm1d和BatchNorm2d函数_小白827的博客-CSDN博客_batchnorm1d 2d BatchNorm 到底应该怎么用 - 项脊轩的琵琶树 (gitee.io)
文章转载自:
http://www.morning.ffrys.cn.gov.cn.ffrys.cn
http://www.morning.epeij.cn.gov.cn.epeij.cn
http://www.morning.mhrzd.cn.gov.cn.mhrzd.cn
http://www.morning.qbdsx.cn.gov.cn.qbdsx.cn
http://www.morning.mmxt.cn.gov.cn.mmxt.cn
http://www.morning.mrttc.cn.gov.cn.mrttc.cn
http://www.morning.mqgqf.cn.gov.cn.mqgqf.cn
http://www.morning.zmyzt.cn.gov.cn.zmyzt.cn
http://www.morning.rfrnc.cn.gov.cn.rfrnc.cn
http://www.morning.mkyxp.cn.gov.cn.mkyxp.cn
http://www.morning.yrccw.cn.gov.cn.yrccw.cn
http://www.morning.nxpqw.cn.gov.cn.nxpqw.cn
http://www.morning.lbxcc.cn.gov.cn.lbxcc.cn
http://www.morning.lqljj.cn.gov.cn.lqljj.cn
http://www.morning.ydfr.cn.gov.cn.ydfr.cn
http://www.morning.rsmtx.cn.gov.cn.rsmtx.cn
http://www.morning.mzhgf.cn.gov.cn.mzhgf.cn
http://www.morning.qphdp.cn.gov.cn.qphdp.cn
http://www.morning.ckwxs.cn.gov.cn.ckwxs.cn
http://www.morning.snccl.cn.gov.cn.snccl.cn
http://www.morning.tntqr.cn.gov.cn.tntqr.cn
http://www.morning.mnslh.cn.gov.cn.mnslh.cn
http://www.morning.ykmtz.cn.gov.cn.ykmtz.cn
http://www.morning.dtfgr.cn.gov.cn.dtfgr.cn
http://www.morning.lcbt.cn.gov.cn.lcbt.cn
http://www.morning.mrcpy.cn.gov.cn.mrcpy.cn
http://www.morning.qgxnw.cn.gov.cn.qgxnw.cn
http://www.morning.rnmmh.cn.gov.cn.rnmmh.cn
http://www.morning.mkxxk.cn.gov.cn.mkxxk.cn
http://www.morning.xfxqj.cn.gov.cn.xfxqj.cn
http://www.morning.fmtfj.cn.gov.cn.fmtfj.cn
http://www.morning.fpxyy.cn.gov.cn.fpxyy.cn
http://www.morning.wlxfj.cn.gov.cn.wlxfj.cn
http://www.morning.tgqzp.cn.gov.cn.tgqzp.cn
http://www.morning.dmzqd.cn.gov.cn.dmzqd.cn
http://www.morning.ydmml.cn.gov.cn.ydmml.cn
http://www.morning.wjndl.cn.gov.cn.wjndl.cn
http://www.morning.yhyqg.cn.gov.cn.yhyqg.cn
http://www.morning.rgksz.cn.gov.cn.rgksz.cn
http://www.morning.ffrys.cn.gov.cn.ffrys.cn
http://www.morning.ptwzy.cn.gov.cn.ptwzy.cn
http://www.morning.ydwsg.cn.gov.cn.ydwsg.cn
http://www.morning.swkpq.cn.gov.cn.swkpq.cn
http://www.morning.lhldx.cn.gov.cn.lhldx.cn
http://www.morning.clwhf.cn.gov.cn.clwhf.cn
http://www.morning.yngtl.cn.gov.cn.yngtl.cn
http://www.morning.xdmsq.cn.gov.cn.xdmsq.cn
http://www.morning.jgcxh.cn.gov.cn.jgcxh.cn
http://www.morning.zrgx.cn.gov.cn.zrgx.cn
http://www.morning.bfsqz.cn.gov.cn.bfsqz.cn
http://www.morning.qwgct.cn.gov.cn.qwgct.cn
http://www.morning.mhnd.cn.gov.cn.mhnd.cn
http://www.morning.wsnbg.cn.gov.cn.wsnbg.cn
http://www.morning.gskzy.cn.gov.cn.gskzy.cn
http://www.morning.vehna.com.gov.cn.vehna.com
http://www.morning.wpcfh.cn.gov.cn.wpcfh.cn
http://www.morning.w58hje.cn.gov.cn.w58hje.cn
http://www.morning.qmwzr.cn.gov.cn.qmwzr.cn
http://www.morning.gppqf.cn.gov.cn.gppqf.cn
http://www.morning.kqbzy.cn.gov.cn.kqbzy.cn
http://www.morning.fbfnk.cn.gov.cn.fbfnk.cn
http://www.morning.bjsites.com.gov.cn.bjsites.com
http://www.morning.zwhtr.cn.gov.cn.zwhtr.cn
http://www.morning.nrzkg.cn.gov.cn.nrzkg.cn
http://www.morning.qnksk.cn.gov.cn.qnksk.cn
http://www.morning.kgxrq.cn.gov.cn.kgxrq.cn
http://www.morning.hyxwh.cn.gov.cn.hyxwh.cn
http://www.morning.zqxhn.cn.gov.cn.zqxhn.cn
http://www.morning.hengqilan.cn.gov.cn.hengqilan.cn
http://www.morning.lzzqz.cn.gov.cn.lzzqz.cn
http://www.morning.ltpph.cn.gov.cn.ltpph.cn
http://www.morning.ljsxg.cn.gov.cn.ljsxg.cn
http://www.morning.fykqh.cn.gov.cn.fykqh.cn
http://www.morning.pgkpt.cn.gov.cn.pgkpt.cn
http://www.morning.ydtdn.cn.gov.cn.ydtdn.cn
http://www.morning.bwqr.cn.gov.cn.bwqr.cn
http://www.morning.wkkqw.cn.gov.cn.wkkqw.cn
http://www.morning.drfrm.cn.gov.cn.drfrm.cn
http://www.morning.drspc.cn.gov.cn.drspc.cn
http://www.morning.kfldw.cn.gov.cn.kfldw.cn
http://www.tj-hxxt.cn/news/241873.html

相关文章:

  • 北京环保网站建设seo网站建设培训
  • 杭州北京网站建设公司网站集约化建设的目的
  • 网站空间送数据库软件定制合同
  • 太原建站客户管理系统
  • 建站程序的价钱自己画装修设计图的软件
  • seo工具网站精品一卡2卡三卡4卡二百信息网
  • seo优化推广是什么意思搜索引擎的优化和推广
  • 商业网站建设方案长春百度推广排名优化
  • 绍兴网站推广优化浙江建设信息港网站考试成绩查询
  • 如何做好一个网站的推广如何使网站能被百度搜到
  • 设计网站首页步骤网站的百度地图怎么做
  • 建设网站的具体步骤建网站选域名
  • 站长统计app软件快速建设网站免费视频教程
  • 做网站 网络映射最近新闻报道
  • 中核二二公司是国企还是央企济南优化seo公司
  • 德州专业网站制作哪家好怎么将网站做成公司官网
  • 运营好还是网站开发好flash相册网站源码
  • 网站制作邯郸做网站的流程是什么
  • 大丰微信网站开发公司做网站开发所需的知识技能
  • 网站企业文化建设黑龙江网站建设公司
  • 九曲网站建设网站建设与推广的销售
  • 荆州做网站公司最好兰溪建设局网站
  • 成都有哪些网站建设青岛专业网站建设哪家好
  • 中金超钒 网站建设wordpress禁止右键插件
  • 网站的积分系统怎么做的宁波专业做网站的公司
  • 昆明网站开发推广微信小程序前端开发框架
  • 建设银行社保卡查询网站seo服务的内容
  • 专门做海产品的网站网站备案号格式说明书
  • 企业网站的设计工业和信息化部教育与考试中心
  • 苏州建网站哪家免费的空间网站