当前位置: 首页 > news >正文

做网站要学什么东西seo专业培训技术

做网站要学什么东西,seo专业培训技术,哪个网站做自行车评测的,移动互联网综合实训实践报告文章目录 softmax loss1.softmax函数2.交叉熵损失函数3.softmax loss损失函数(重点)4.带有temperature参数的softmax loss参考 softmax loss 1.softmax函数 softmax函数是一种常用的激活函数,通常用于多分类任务中。给定一个向量&#xff0…

文章目录

  • softmax loss
    • 1.softmax函数
    • 2.交叉熵损失函数
    • 3.softmax loss损失函数(重点)
    • 4.带有temperature参数的softmax loss
    • 参考

softmax loss

1.softmax函数

softmax函数是一种常用的激活函数,通常用于多分类任务中。给定一个向量,softmax函数将每个元素转化为一个介于0~1之间的概率值,并且所有元素的概率之和为1。softmax函数的定义如下:
softmax ⁡ ( z ) i = e z i ∑ j = 1 K e z j \operatorname{softmax}(z)_i=\frac{e^{z_i}}{\sum_{j=1}^Ke^{z_j}} softmax(z)i=j=1Kezjezi
其中 z z z是输入向量, K K K是向量的维度。softmax函数的作用是将输入的原始分数(通常称之为logits1)转化为表示各个类别概率的分布。

2.交叉熵损失函数

交叉熵损失函数是用来衡量两个概率分布之间的差异性的一种度量方式。在深度学习中,常用交叉熵损失函数来衡量模型预测的概率分布与真实标签的分布之间的差异,从而作为优化目标来训练模型。

对于二分类问题,交叉熵损失函数的定义如下
Binary Cross Entropy Loss = − 1 N ∑ i = 1 N [ y i log ⁡ ( p i ) + ( 1 − y i ) log ⁡ ( 1 − p i ) ] \text{Binary Cross Entropy Loss}=-\frac1N\sum_{i=1}^N\left[y_i\log(p_i)+(1-y_i)\log(1-p_i)\right] Binary Cross Entropy Loss=N1i=1N[yilog(pi)+(1yi)log(1pi)]
其中 y i y_i yi是真实标签, p i p_i pi是模型预测的概率值, N N N是样本数。

对于多分类问题,交叉熵损失函数的定义如下
Cross Entropy Loss = − 1 N ∑ i = 1 N ∑ k = 1 K y i , k log ⁡ ( p i , k ) \text{Cross Entropy Loss}=-\frac1N\sum_{i=1}^N\sum_{k=1}^Ky_{i,k}\log(p_{i,k}) Cross Entropy Loss=N1i=1Nk=1Kyi,klog(pi,k)
其中 y i , k y_{i,k} yi,k是第 i i i 个样本属于第 k k k 个类别的真实标签, p i , k p_{i,k} pi,k 是模型预测的第 i i i 个样本属于第 k k k 个类别的概率值, N N N 是样本数, K K K 是类别数。

3.softmax loss损失函数(重点)

softmax loss是深度学习中最常见的损失函数,完整的叫法为 Cross-entropy loss with softmax。softmax loss 由Fully Connected Layer,Softmax Function和Cross-entropy Loss组成。

Alt

softmax loss就是将softmax函数和交叉熵损失函数结合在了一起
Softmax Loss = − 1 N ∑ i = 1 N ∑ k = 1 K y i , k log ⁡ ( exp ⁡ ( z i , k ) ∑ j = 1 K exp ⁡ ( z i , j ) ) \text{Softmax Loss}=-\frac1N\sum_{i=1}^N\sum_{k=1}^Ky_{i,k}\log\left(\frac{\exp(z_{i,k})}{\sum_{j=1}^K\exp(z_{i,j})}\right) Softmax Loss=N1i=1Nk=1Kyi,klog(j=1Kexp(zi,j)exp(zi,k))
其中 y i , k y_{i,k} yi,k 是第 i i i 个样本属于第 k k k 个类别的真实标签,当样本 i i i 属于类别 k k k 时, y i , k = 1 y_{i,k}=1 yi,k=1;否则, y i , k = 0 y_{i,k}=0 yi,k=0 z i , k z_{i,k} zi,k 是样本 i i i 关于类别 k k k 的得分logits, N N N 是样本数, K K K 是类别数。

4.带有temperature参数的softmax loss

带有温度参数 T T T 的 softmax loss的损失函数如下:
Loss = − 1 N ∑ i = 1 N ∑ k = 1 K y i , k log ⁡ ( exp ⁡ ( z i , k / T ) ∑ j = 1 K exp ⁡ ( z i , j / T ) ) \text{Loss}=-\frac1N\sum_{i=1}^N\sum_{k=1}^Ky_{i,k}\log\left(\frac{\exp(z_{i,k}/T)}{\sum_{j=1}^K\exp(z_{i,j}/T)}\right) Loss=N1i=1Nk=1Kyi,klog(j=1Kexp(zi,j/T)exp(zi,k/T))

参考

1.Large-Margin Softmax Loss for Convolutional Neural Networks

2.Softmax Loss推导过程以及改进

3.深度学习中的温度参数(Temperature Parameter)是什么?

😃😃😃


  1. logits就是一个向量,该向量下一步通常被输入到激活函数中,如softmax、sigmoid中。 ↩︎

http://www.tj-hxxt.cn/news/91623.html

相关文章:

  • python做网站用什么框架常用的网络推广方法有
  • 有做国外网站推广吗高端品牌网站建设
  • 做外贸的免费网站设计师必备的6个网站
  • 开微信公众号流程百度推广优化技巧
  • 网站做公司培训心得总结
  • wordpress手机端图片杭州排名优化公司
  • 电话怎么做网站推广2022真实新闻作文400字
  • 前端程序员需要掌握哪些基本技术南宁seo怎么做优化团队
  • 湖南省政府网站建设及信息公开网络营销的主要内容包括
  • 外贸零售网站建设青柠影院免费观看电视剧高清
  • 北京建设工程联合验收网站南京seo外包平台
  • 网络营销外包专员seo排名推广工具
  • 江苏做网站seo排名快速刷
  • 网站开发工程师岗位线下推广有哪几种渠道
  • 深圳哪个做网站好优化宁波seo推广平台
  • web用框架做网站步骤如何开网站详细步骤
  • 网站建设运营的灵魂是什么苹果自研搜索引擎或为替代谷歌
  • 提供网站建设电话网站建设优化收费
  • 定制开发生产管理软件推荐电脑优化软件哪个好用
  • 做拍卖网站需要多少钱seo人才
  • 做教育培训网站需要资质么如何制作网页教程
  • 网站域名备案需要资料保定百度seo公司
  • 建站程序的作用今日小说搜索风云榜
  • 重庆seo搜索引擎优化优与略就业seo好还是sem
  • 网站建设自学深圳市seo上词多少钱
  • 徐州模板建站哪家好互联网运营推广是做什么的
  • 做个app软件需要多少钱宁波seo
  • 贸易做网站发布软文的平台有哪些
  • 开锁做网站怎么样沈阳网站seo
  • 番禺网站建设怎样营销咨询公司