当前位置: 首页 > news >正文

wordpress inc目录苏州优化seo

wordpress inc目录,苏州优化seo,南京做网站xjrkj,栾城seo整站排名这里写自定义目录标题 Self-attentionMulti-head self-attention用self-attention解决其他问题 Self-attention 用Wq、Wk、Wv分别乘输入向量得到q、k、v向量 用每个q向量乘所有的k向量得到对应项的attention,即用每项的query向量去匹配所有的key向量,得…

这里写自定义目录标题

  • Self-attention
  • Multi-head self-attention
  • 用self-attention解决其他问题

Self-attention

  1. 用Wq、Wk、Wv分别乘输入向量得到q、k、v向量
    在这里插入图片描述
  2. 用每个q向量乘所有的k向量得到对应项的attention,即用每项的query向量去匹配所有的key向量,得到该项对所有项的注意力打分。可以用矩阵优化运算。激活函数softmax可以用relu等替换。
    在这里插入图片描述
  3. 用q、v的相乘的结果乘v得到self-attention的输出b
    在这里插入图片描述
  4. 综上,如下图
    在这里插入图片描述

Multi-head self-attention

  1. 通过多组q、k、v来表示不同的相关性
    在这里插入图片描述
  2. 将多头的输出融合到一起
    在这里插入图片描述
  3. 位置编码,将位置信息编码为向量(每个位置一个专属向量),加到输入中即可
    在这里插入图片描述

用self-attention解决其他问题

  1. 语音解析:输入维度过大,使用truncated self-attention
    在这里插入图片描述
  2. 图像处理:每个像素(三个通道)可以看作一个三维向量,如下图可以将50个三维向量作为输入
    在这里插入图片描述
    在这里插入图片描述
  3. self-attention vs cnn:cnn相当于简化版的self-attention,卷积核的运算相当于对卷积核区域内的像素点求k、v,self-attention的感受野是自己学习的,而cnn的卷积核是手动设置的

在这里插入图片描述
cnn就是self-attention的特例。self-attention更灵活,但是如果训练集小可能更容易过拟。
在这里插入图片描述
在这里插入图片描述
4. self-attention vs RNN
在这里插入图片描述
5. self-attention for Graph:用attention来表示nodes之间的关联
在这里插入图片描述

http://www.tj-hxxt.cn/news/105849.html

相关文章:

  • 做网站制作怎么样网络营销的基本方式有哪些
  • 东莞直播app软件开发定制win优化大师有用吗
  • 扬州做网站的网络公司全国教育培训机构平台
  • 成都市建设相关网站seo手机搜索快速排名
  • 建网站网关键词排名优化公司成都
  • 长沙网站建设公司哪家专业品牌推广外包公司
  • 布吉做棋牌网站建设成都网站建设企业
  • 网站备案年限查询seo设置是什么
  • 凡科用模板做网站重庆百度快照优化排名
  • 个人可以做网站么网上商城建设
  • 网站建设开发软件有哪些方面免费发广告帖子的网站
  • 网站建设运行情况简介百度收录好的免费网站
  • 云南免费网站建设推广方案流程
  • 小说网站seo排名怎么做网络广告营销方案策划
  • 北京做机柜空调的网站游戏推广合作
  • 卖视频会员个人网站怎么做12345浏览器
  • 网站首页psd下载免费自制app软件
  • 网站手机版二维码怎么做seo优化广告
  • 网站开发语言怎么让关键词快速上首页
  • 注册电气工程师长沙企业关键词优化
  • 聊城质量最好网站建设企业网站推广渠道
  • 中国建设部官方网站鲁班奖渠道推广策略
  • 哎呀哎呀视频在线观看常州网站建设优化
  • 地产商网站建设网络营销推广方式包括哪几种
  • 天津市建筑招标信息网网站推广关键词排名优化
  • 武汉培训网站建设天眼查询个人信息
  • 网站充值系统怎么做推56论坛
  • 手机网站出现广告南京seo代理
  • 自己做国外网站seo优化方案
  • 文档里网站超链接怎么做软文推广例子