当前位置: 首页 > news >正文

网站负责人查询php网站建设是什么意思

网站负责人查询,php网站建设是什么意思,电子商务网站建设试题二,长春h5建站模板点进去这篇文章的开源地址#xff0c;才发现这篇文章和DC DSA居然是一个作者#xff0c;数据浓缩写了三篇论文#xff0c;第一篇梯度匹配#xff0c;第二篇数据增强后梯度匹配#xff0c;第三篇匹配数据分布。DC是匹配浓缩数据和原始数据训练一次后的梯度差#xff0c;DS… 点进去这篇文章的开源地址才发现这篇文章和DC DSA居然是一个作者数据浓缩写了三篇论文第一篇梯度匹配第二篇数据增强后梯度匹配第三篇匹配数据分布。DC是匹配浓缩数据和原始数据训练一次后的梯度差DSA是在DC前加入了一层数据增强DM直接就匹配浓缩数据和原始数据丢入模型得到的输出匹配输出的分布。 一个github地址包含了三个数据浓缩方法的开源代码。 1. 基于分布匹配的数据集浓缩 在降低训练成本方面最近一个很有前途的方向是数据集凝聚其目的是在保留原始信息的情况下用一个小得多的学习合成集取代原来的大训练集。 虽然在小集合的压缩图像上训练深度模型可以非常快但由于复杂的双层优化和二阶导数计算它们的合成仍然是计算昂贵的DDDCDSA。 在本工作中我们提出了一种简单而有效的方法通过匹配合成图像和原始训练图像在多个采样嵌入空间的特征分布来合成压缩图像。我们的方法显著降低了合成成本同时实现了相当或更好的性能。 2. 方法 2.1 数据浓缩的问题 现有的方法包括DDDC和DSA等他们的弊端在于时间复杂度太高内层需要训练模型并更新浓缩数据集外层还需要适应不同的 θ 0 \theta_0 θ0​实现起来需要三层循环时间复杂度高。 2.2 分布匹配的数据浓缩 真实数据分布记为 P D P_{\mathcal{D}} PD​。 我们将训练数据记为 x ∈ ℜ d \boldsymbol{x} \in \Re^d x∈ℜd 并且可以被编码到一个低维空间通过函数 ψ ϑ : ℜ d → ℜ d ′ \psi_{\vartheta}: \Re^d \rightarrow \Re^{d^{\prime}} ψϑ​:ℜd→ℜd′ 其中 d ′ ≪ d d^{\prime} \ll d d′≪d ϑ \vartheta ϑ 是函数的参数数值。 换句话说每个embedding 函数 ψ \psi ψ可以被视为提供其输入的部分解释而它们的组合则提供完整的解释。 现在我们可以使用常用的最大平均差异MMD来估计真实数据分布和合成数据分布之间的距离 sup ⁡ ∥ ψ ϑ ∥ H ≤ 1 ( E [ ψ ϑ ( T ) ] − E [ ψ ϑ ( S ) ] ) \sup _{\left\|\psi_{\vartheta}\right\|_{\mathcal{H}} \leq 1}\left(\mathbb{E}\left[\psi_{\vartheta}(\mathcal{T})\right]-\mathbb{E}\left[\psi_{\vartheta}(\mathcal{S})\right]\right) ∥ψϑ​∥H​≤1sup​(E[ψϑ​(T)]−E[ψϑ​(S)]) 由于我们无法获得真实数据分布因此我们使用 MMD 的经验估计 E ϑ ∼ P ϑ ∥ 1 ∣ T ∣ ∑ i 1 ∣ T ∣ ψ ϑ ( x i ) − 1 ∣ S ∣ ∑ j 1 ∣ S ∣ ψ ϑ ( s j ) ∥ 2 \mathbb{E}_{\boldsymbol{\vartheta} \sim P_{\vartheta}}\left\|\frac{1}{|\mathcal{T}|} \sum_{i1}^{|\mathcal{T}|} \psi_{\boldsymbol{\vartheta}}\left(\boldsymbol{x}_i\right)-\frac{1}{|\mathcal{S}|} \sum_{j1}^{|\mathcal{S}|} \psi_{\boldsymbol{\vartheta}}\left(\boldsymbol{s}_j\right)\right\|^2 Eϑ∼Pϑ​​ ​∣T∣1​i1∑∣T∣​ψϑ​(xi​)−∣S∣1​j1∑∣S∣​ψϑ​(sj​) ​2 就是在不同参数取值的embedding函数下输入原始数据和浓缩数据得到的输出要尽可能接近论文里就直接使用了神经网络的输出让神经网络的输出尽可能接近。 因为这篇论文是DSA的后续作所以顺其自然沿用了DSA的方法训练的时候对浓缩数据和原始数据都进行了相同的数据增强。 min ⁡ S E ω ∼ P ϑ ω ∼ Ω ∥ 1 ∣ T ∣ ∑ i 1 ∣ T ∣ ψ ϑ ( A ( x i , ω ) ) − 1 ∣ S ∣ ∑ j 1 ∣ S ∣ ψ ϑ ( A ( s j , ω ) ) ∥ 2 \min _{\mathcal{S}} \mathbb{E}_{\substack{\boldsymbol{\omega} \sim P_{\boldsymbol{\vartheta}} \\ \omega \sim \Omega}}\left\|\frac{1}{|\mathcal{T}|} \sum_{i1}^{|\mathcal{T}|} \psi_{\boldsymbol{\vartheta}}\left(\mathcal{A}\left(\boldsymbol{x}_i, \omega\right)\right)-\frac{1}{|\mathcal{S}|} \sum_{j1}^{|\mathcal{S}|} \psi_{\boldsymbol{\vartheta}}\left(\mathcal{A}\left(\boldsymbol{s}_j, \omega\right)\right)\right\|^2 Smin​Eω∼Pϑ​ω∼Ω​​ ​∣T∣1​i1∑∣T∣​ψϑ​(A(xi​,ω))−∣S∣1​j1∑∣S∣​ψϑ​(A(sj​,ω)) ​2 A \mathcal{A} A就是对应的数据增强操作 ω \omega ω是对应数据增强操作的参数。 2.3 训练步骤 训练K-1步每一步都选定一个embedding函数的参数不断地训练并修改S使得S输出尽可能接近原始数据集T。这个embedding函数就是一个具体的神经网络 3. 结果 由于此方法计算不需要计算梯度只需要正向传播embedding网络得到输出之后反向传播浓缩数据集S即可因此可以压缩到更多数量的图片上并且第一次在TinyImageNet这种大数据集上进行压缩。 比起DC和DSADM得到的数据分布更接近原始数据分布。
http://www.tj-hxxt.cn/news/133872.html

相关文章:

  • 青岛php网站建设国外网络推广哪家公司好
  • 自助建站免费平台企业信息系统规划的含义及任务
  • 注册网站页面跳转错误wordpress 好用的编辑器
  • 提示网站建设中四会城乡建设局网站
  • 东三省网站建设公司wordpress 首页模版
  • 建一个网站难不难服务好的南京网站建设
  • 专做老酒的网站济南网站建设行知科技不错
  • 网站建设360搜索引擎广告图片
  • 大型网站系统图wordpress 做一个视频站
  • 关于网站备案前置审批的相关说明 吉林一站式服务广告语
  • 北京网站设计公司哪儿济南兴田德润简介网站设计与推广
  • 网站建设与管理适合女生学吗江苏省建设厅 标准化网站
  • 协会网站方案广州腾虎网络网站建设熊掌号
  • 外贸网站建设模式株洲网站优化找哪家
  • 怎么创建网站赚钱dede网站怎么做404页面
  • 怎么在云服务器上搭建网站t恤在线制作网站
  • 网站建设分为多少模块我市建设车辆违章查询网站 病句
  • 网站建设所需要的软件十大难进的互联网公司
  • 郑州网站建设企业推荐我有云服务器如何建站
  • 建设网站手机版怎么看一级还是二级域名
  • 重庆官方网站建设导入表格数据做地图网站
  • 学习网站开发心得体会学校网站的建设论文
  • 黄页网站怎么查wordpress主题手动安装
  • 网站模板定制app产品开发公司
  • 网站制作优化全包湖南企业seo优化报价
  • 怎么给网站做网站地图南京工程造价信息网
  • 做网站需要什么开发语言网站开发属于哪个税收分类
  • 重庆企业网站推广平台营销网站建设哪里好薇
  • 网站源码是什么龙岗网站设计资讯
  • 内江网站建设公司甘肃省城乡住房建设厅网站首页