当前位置: 首页 > news >正文

网站建设的经费东台网络推广

网站建设的经费,东台网络推广,网站开发工程师的经验,wordpress locahostActivation Function激活函数一般会神经网络中隐层和输出层上#xff0c;其中作用在输出层主要用于适配输出#xff0c;比如sigmoid函数可用于生成[0,1]之间的概率估计值。而作用于隐层主要用于增加神经网络的非线性#xff0c;增加了网络的表达能力#xff0c;本文主要介绍…Activation Function激活函数一般会神经网络中隐层和输出层上其中作用在输出层主要用于适配输出比如sigmoid函数可用于生成[0,1]之间的概率估计值。而作用于隐层主要用于增加神经网络的非线性增加了网络的表达能力本文主要介绍隐层的激活函数的选择。 1. Sigmoid激活函数 sigmoid函数会将输入转化到0~1之间的范围数据分布以0.5为中间其主要的优点是处处连续可导当输入值较大或较小时其梯度值极小因此容易造成梯度消失的问题特别是随着网络层数增加各层权重参数叠加会导致问题加剧虽然可能BatchNorm等方法可以解决这类问题但在多数情况下应用sigmoid激活函数并不会带来较大收益现在更常用Relu函数等取代。 2. Tanh激活函数 tanh函数会将输入转化到-1~1之间的范围数据分布以0为中间其也是处处连续可导但当输入值较大或较小时其梯度值极小也会出现梯度消失的问题另外由于其数据分布是以0为中心的因此更容易收敛在某些特定网络结构如RNN中这种以0为中心对称分布同时包含了负数值的激活函数是有帮助的。 3. 类Tanh激活函数 上图的两个函数类似于tanh函数其值范围在-1~1之间 数据分布以0为中间只是softsign函数更为平滑在一定程度上能减少tanh函数的梯度消失问题会带来更为高效的训练但其梯度计算相较于tanh更为复杂。hardtanh函数的梯度计算更为简单但其分布偏硬当权重参数值保持在一个偏小范围时其也会有非常好的收敛效果否则更容易陷入梯度消失问题。 4. ReLU激活函数 Relu函数是更为常用的激活函数很多人认为当不知道应该选择什么激活函数时relu函数是默认的选择。relu函数首先的优点是其梯度计算很简单梯度在大于0的情况下处处为1可以加速模型的训练另外其也不会存在梯度消费的问题。 但是其当小于0时输出为0会造成神经元死亡现象dying ReLU problem可能会减少神经元的表达同时会阻断梯度的回传可能会造成训练困难但从另一方面来说其类似于L1正则化增加了模型的稀疏性会带来dropout相似的效果增加模型的泛化性。 5. ReLU激活函数的变种 上图ReLU函数的一系列变种函数其解决ReLU神经元死亡现象dying ReLU problem对于输入值小于0时添加了一个a1的线性系数其中Leaky ReLU函数这个系数a值是固定的较小值而PRelu这个系数a值是一个模型可训练的参数RReLU函数这个系数a值是随机采样得到的。 特别是对于小型网络应用Leaky ReLU函数是很有必要的能让输出值小于0部分梯度也能回传可以帮忙模型更好的训练。 与PReLU函数类似的是Maxout函数其提供了更多可学习参数号称可以拟合任何的凸激活函数但是其带来了更多的参数增加了模型的学习难度。 ReLU函数另一个变种是对ReLU函数做了向上截断如下这是因为ReLU系列函数存在scale-invariant的特性即当输入增加10倍输出也会增加10倍由于其只输出大于0的值因此当各层权重值加大时其输出值会累计膨胀称之为bias shift造成学习上的困难。 ReLU另一个类似的激活函数是Swish函数 其是由sigmoid函数再乘以输入变量得到但在图形上类似于ReLU但为平滑同时通过引入变量当值越大其越趋近于ReLU函数当其值越小其越趋近于线性函数这个可以作为一个可以训练学习的参数一些研究通过实验表明特别在大规模深度神经网络中其能取得比ReLU更好的效果。 Swish函数另一个主要的问题是其梯度计算更为复杂因此另一类似的激活函数hardSwish提供了更为简单的版本。 6. Softplus激活函数 softplus激活函数可以视为ReLU函数的平滑版本当值越大其越趋近于ReLU函数但是虽然其处处连续可导但在实际上其并没有比ReLu更好的效果一方面其计算梯度更为复杂另外可能是Relu所带来的稀疏性对模型本身会增益。 7. ELU类激活函数 前文提到ReLU函数存在bias shift的问题PReLU等变种激活函数可以解决这个问题但是其存在线性负轴因此对于噪声缺乏稳健性神经元缺乏不激活状态而ELU类激活函数更为平滑函数处处连续可导同时保证输出的均值为0因此在训练时的收敛速度要高于ReLU也不存在ReLU神经元死亡现象dying ReLU problem但是ELU函数的计算复杂度要高于ReLU所以在测试时计算速度要大于ReLU。 8. shrink类激活函数 shrink类函数几乎是很少用于隐层激活函数其类似于一个线性函数只不过在0附近有一个段非激活区域在某些场景下会有用比如用于软L1正则项的计算或者在稀疏编码sparse coding可以用于计算稀疏的潜在变量。 总结 对于激活函数的选择并没有放之四海皆准的法则一般都需要根据模型需要去尝试。很多学者建议在初始情况下选择ReLU作为默认激活函数之后可以尝试PReLU、Maxout、Swish等类ReLU函数进行优化但这些方法都可能会增加模型的训练难度。 另外sigmoid、tanh等其他类激活函数由于存在梯度消失等问题很多学者并不推荐使用但是通过结合BatchNorm等方法在部分场景下会更适合比如tanh函数适合某些需要负值输出的情况。
http://www.tj-hxxt.cn/news/136575.html

相关文章:

  • 网站搜索优化怎么做网络电商培训课程网站设计
  • 京东在线购物网站php 手机网站开发教程
  • 公司网站属于信息化建设吗做网站如何分工
  • 建设田达摩托车官方网站小说百度搜索风云榜
  • 做公司网站都需要什么博山信息港
  • 响应式外贸网站价格朝阳网站建设 高碑店
  • 微网站开发不用模板网站的百度地图怎么做
  • 一个网站需要服务器吗桂林论坛网app
  • 黔东南手机网站建设国外教做蛋糕的网站
  • 怎么查网站注册信息浙江建站优化品牌
  • 南康建设局官方网站抖音seo优化系统招商
  • 贵州安顺建设主管部门网站ui界面
  • 城市建设者官方网站wordpress域名地址设置方法
  • 宁波慈溪网站建设电力行业企业网站建设
  • 可以做锚文本链接的网站搭建一个微信小程序要多少钱
  • 嘉祥做网站如何做电影网站
  • flash国外网站wordpress实现视频播放
  • 抚州律师网站建设哪个网站找到做箱包厂外发的
  • 一个网站怎么做软件网站空间多少
  • 宁夏众擎达网站建设小程序开发教程
  • 淘宝建设网站虚拟主机评测
  • 江苏营销型网站推广网站跳出率是什么意思
  • 满天星建设网站名人朋友圈网页版qq登录入口
  • 做旅游网站挣钱吗学网站开发的软件
  • 网站策划专有技术久久建筑网cad
  • 北京网站优化页面做网站卖大闸蟹
  • 网站运营策划提案静态网站入侵
  • 怎么用网络推广南昌网络排名优化
  • 北京做erp报价的网站网站做301好不好
  • 嘉兴秀宏建设公司网站来宾网站建设公司