当前位置: 首页 > news >正文

高端网站定制建站咸宁住房和城乡规划建设局网站

高端网站定制建站,咸宁住房和城乡规划建设局网站,seo公司怎样找客户,artdialog wordpress主题文章目录 1、概述2、BN层3、LN层4、Pytorch的实现5、BN层和LN层的对比 1、概述 归一化(Normalization) 方法#xff1a;指的是把不同维度的特征#xff08;例如序列特征或者图像的特征图等#xff09;转换为相同或相似的尺度范围内的方法#xff0c;比如把数据特征映射到[… 文章目录 1、概述2、BN层3、LN层4、Pytorch的实现5、BN层和LN层的对比 1、概述 归一化(Normalization) 方法指的是把不同维度的特征例如序列特征或者图像的特征图等转换为相同或相似的尺度范围内的方法比如把数据特征映射到[0, 1]或[−1, 1]区间内或者映射为服从均值为0、方差为1的标准正态分布。那为什么要进行归一化 样本特征由于来源和度量单位的不同或者经过多个卷积层处理后导致不同来源或者不同卷积层的输入特征尺度存在较大差异模型的优化方向可能会被尺度较大的特征所主导。而进行归一化可以使得尺度大致处于同一范围内从而有利于模型的训练和优化。 BN层(Batch Normalization)是在不同样本之间进行归一化。LN层(Layer Normalization)是在同一样本内部进行归一化。以下的图简单展示了二者的区别 参考链接https://blog.csdn.net/qq_44397802/article/details/128452207 2、BN层 下图很清晰的解释了BN层由于是Batch Normalization那么简单来说就是针对Batch中的不同样本之间求均值和标准差再做归一化 1如下图针对神经元的输出进行BN确定Batch size为N但是不同类型样本的维度可能不一样下图中维度为1例如图像经过卷积以后维度为C × \times ×H × \times ×W 2不论维度为多少各个样本之间的维度是相同的因此针对不同样本之间的对应维度计算出均值和标准差肯定与每个样本的维度相同下图中均值和标准差都为一维对于图像均值和标准差的维度为C × \times ×H × \times ×W 3针对每个神经元训练一组可学习的参数 γ \gamma γ和 β \beta β用于对输出的每个响应值做缩放和平移。 4注意如果样本为一维可学习参数的组数与输出的响应值的数量相等也与神经元的个数相等如果样本是图像输入为N × \times ×C1 × \times ×H × \times ×W卷积核个数为C2那么输出为N × \times ×C2 × \times ×H × \times ×W因此可学习参数的组数与输出通道数相等为C2也与卷积核个数相等。 5所以简单来说可学习参数的组数就与通道数相等。 3、LN层 一般来说层归一化所做的就是对于图像即输入为N × \times ×C × \times ×H × \times ×W的特征图在每个样本内部计算所有像素点的均值和标准差并针对每个像素点训练一组可学习参数 γ \gamma γ和 β \beta β用于进行缩放和平移以归一化到同一范围内。 如下图所示针对的是一个样本中的所有通道内的所有像素。也就是说和Batch无关。 因此可学习参数的组数就等于C × \times ×H × \times ×W。 计算公式 4、Pytorch的实现 BN层的实现 torch.nn.BatchNorm2d(num_features, eps1e-05, momentum0.1, affineTrue, track_running_statsTrue, deviceNone, dtypeNone)num_features输入尺寸为(N,C,H,W)则该值为CLN层的实现 torch.nn.LayerNorm(normalized_shape, eps1e-05, elementwise_affineTrue, deviceNone, dtypeNone)1normalized_shape归一化的尺寸输入的尺寸必须符合[∗×normalized_shape[0]×normalized_shape[1]×…×normalized_shape[−1]] 如果为单个整数则对最后一维进行归一化 2elementwise_affine是否具有可学习的参数默认为True如下为BN和LN层的实现以及参数量的计算 import torch from torch import nn# NLP Example batch, sentence_length, embedding_dim 20, 5, 10 embedding torch.randn(batch, sentence_length, embedding_dim) layer_norm nn.LayerNorm(embedding_dim) print(layer_norm) param_num sum([param.numel() for param in layer_norm.parameters()]) print(param_num) output_embed layer_norm(embedding) print(output_embed.shape)输出为 LayerNorm((10,), eps1e-05, elementwise_affineTrue) 20 torch.Size([20, 5, 10])import torch from torch import nn# Image Example N, C, H, W 20, 5, 10, 10 input0 torch.randn(N, C, H, W) # Normalize over the last three dimensions (i.e. the channel and spatial dimensions) layer_norm nn.LayerNorm([C, H, W]) # 参数量为C*H*W*2 print(layer_norm) param_num sum([param.numel() for param in layer_norm.parameters()]) print(param_num) output layer_norm(input0) print(output.shape)input1 torch.randn(N, C, H, W) batch_norm nn.BatchNorm2d(C) # 参数量为C*2 print(batch_norm) param_num1 sum([param.numel() for param in batch_norm.parameters()]) print(param_num1) output1 batch_norm(input1) print(output1.shape)输出为 LayerNorm((5, 10, 10), eps1e-05, elementwise_affineTrue) 1000 torch.Size([20, 5, 10, 10]) BatchNorm2d(5, eps1e-05, momentum0.1, affineTrue, track_running_statsTrue) 10 torch.Size([20, 5, 10, 10])5、BN层和LN层的对比 简单对比如下 参考链接https://blog.csdn.net/hymn1993/article/details/122719043
http://www.tj-hxxt.cn/news/135065.html

相关文章:

  • 什么是网站推广优化wordpress添加形式
  • 每天网站外链做几条最好wordpress关闭主题
  • 写作网站vir杭州seo排名费用
  • 网站分类标准外贸一般在哪个网站做的
  • 网站开发与app开发做网络推广的多少钱一个月
  • 网站前后端全部做需要多少钱淘宝联盟上怎么建设网站
  • 网站营销软件如何做网站 站长教课
  • 无锡做网站的公司在线网站搭建系统
  • 有后台支撑的网站建设合同百度竞价推广
  • 负责做网站的叫什么公司网页美工设计招聘
  • 大连网站专业制作单页面网站推广
  • 网站建设考核标准孝感市网站建设
  • 旅游投资公司网站建设ppt模板网页设计免费模板9466
  • 网站开发与数据库报价网站制作
  • 莱芜网站建设案例做外贸什么网站好
  • 太原建设厅官方网站做网站相关的英文名词
  • 天津seo公司网站长沙做网站改版哪里好
  • 自己怎么做网站视频赚钱吗企业手机网站建设市场分析
  • 相册网站开发页面设计包括哪些
  • 网站防止机器注册北京市中关村有哪家可以做网站维护
  • 中国建设银行网站保定五四路门户网站是如何做引流的
  • 网站做编辑器html网页弹窗代码
  • 推荐企业手机网站建设贺州网站建设公司
  • 蓝色 宽屏 网站 模板下载深圳电器公司邮编
  • 网站建设结论及体会青岛做网站找哪家好
  • 本地建站软件wordpress二维码动态图片大小
  • thinkphp开发企业网站都匀网站
  • 网站建设公司销售提成菜户营网站建设公司
  • 青岛有哪些做网站的公司如何做网站电话
  • 网站开发现在是热门专业吗厦门网站建设开发