当前位置: 首页 > news >正文

wordpress建站教程jiuyou营销型企业网站建设的功能

wordpress建站教程jiuyou,营销型企业网站建设的功能,京东网上商城书店官网,中国推广网GGD证明推导学习 这篇文章#xff0c;建议先看相关的论文。这篇是我读证明的感悟#xff0c;因此#xff0c;不会论文的主体内容 首先#xff0c;给出命题#xff1a; DGI的sumary向量是一个常数 给定一个图#xff1a; G { X ∈ R N D , A ∈ R N N } \mathcal{G…GGD证明推导学习 这篇文章建议先看相关的论文。这篇是我读证明的感悟因此不会论文的主体内容 首先给出命题 DGI的sumary向量是一个常数 给定一个图 G { X ∈ R N × D , A ∈ R N × N } \mathcal{G}\{\mathbf{X}\in\mathbb{R}^{N\times D},\mathbf{A}\in\mathbb{R}^{N\times N}\} G{X∈RN×D,A∈RN×N}以及一个GNN编码器 g g g我们将其嵌入表示为 H σ ( g ( G ) ) \mathbf{H}\sigma(g(\mathcal{G})) Hσ(g(G)) σ \sigma σ是非线性激活函数。通过对summary向量s进行激活函数操作我们可以得到ReLUPreluLReLU的值为0.5sigmoid的值为0.62。及我们可以得到 $$s\mathcal{E}I \tag{1}$$ 注这个是有详细的理论证明的但是不是我阅读的主要部分。详细证明见论文的A.1 GGD与DGI的联系 既然我们知道dgi的summary向量s为1了那我们就可以简化整个dgi的流程 简化DGI 假如设置 s ϵ I I \mathbf{s}\mathbf{\epsilon}\mathbf{I}\mathbf{I} sϵII定义区分器为 D ( ⋅ ) \mathcal{D}(\cdot) D(⋅)我们就可以重写dgi为 $$\begin{aligned} \mathcal{L}_{DGI} \frac1{2N}(\sum_{i1}^N\log\mathcal{D}(\mathbf{h}_i,\mathbf{s})\log(1-\mathcal{D}(\tilde{\mathbf{h}}_i,\mathbf{s}))), \\ \frac1{2N}(\sum_{i1}^N\log(\mathbf{h}_i\cdot\mathbf{s})\log(1-\tilde{\mathbf{h}_i}\cdot\mathbf{s}))), \\ \frac1{2N}(\sum_{i1}^N\log(sum(\mathbf{h}_i))\log(1-sum(\tilde{\mathbf{h}}_i))), \end{aligned} \tag{2}$$ 其中区分器是 D ( h i , s ) σ s i g ( h i ⋅ W ⋅ s ) \mathcal{D}(\mathbf{h}_i,\mathbf{s})\sigma_{sig}(\mathbf{h}_i\cdot\mathbf{W}\cdot\mathbf{s}) D(hi​,s)σsig​(hi​⋅W⋅s)这个在代码中是nn.bilinear如果代码看到这个公式就是左侧的区分器 我们定义 y ^ i a g g ( h i ) \hat{y}_{i}agg(\mathbf{h}_{i}) y^​i​agg(hi​)那么整个公式可以简化为 $$\mathcal{L}_{BCE}-\frac{1}{2N}(\sum_{i1}^{2N}y_{i}\log\hat{y}_{i}(1-y_{i})\log(1-\hat{y}_{i})\tag{3}$$ DGI中的引理定义 { H g } g 1 ∣ H ∣ \{\mathbf{H}^{g}\}_{g1}^{|\mathbf{H}|} {Hg}g1∣H∣​是一系列从图形中提取到的一系列节点的嵌入 p ( H ) p(\mathbf{H}) p(H) ∣ H ∣ \left|\mathbf{H}\right| ∣H∣是有限数量的元素。 p ( H g ) p ( H g ′ ) p(\mathbf{H}^{g})p(\mathbf{H}^{g\prime}) p(Hg)p(Hg′)。 R R R是readout函数其将 H g H^g Hg作为输入summary向量作为输出 s g \mathbf{s}^{g} sg. s g \mathbf{s}^{g} sg遵循边缘分布 p ( s ) p(\mathbf{s}) p(s)。我们可以得到联合分布 p ( H , s ) p(\mathbf{H},\mathbf{s}) p(H,s)与边缘分布 p ( H ) p ( s ) ˉ p(\mathbf{H})\bar{p(\mathbf{s})} p(H)p(s)ˉ​之间最佳分类器错误率的上界是 E r ∗ 1 2 ∑ g 1 ∣ H ∣ p ( s g ) 2 Er^{*}\frac{1}{2}\sum_{g1}^{|\mathbf{H}|}p(\mathbf{s}^{g})^{2} Er∗21​∑g1∣H∣​p(sg)2 有公式1我们可以得到s是一个常量summary vector E I \mathcal{E}I EI, E \mathcal{E} E是一个常量。我们可以假设 E \mathcal{E} E独立于 p ( H ) p(H) p(H)实际上在本文先前的证明中我们已经证明 E \mathcal{E} E是常数。其肯定独立于 p ( H ) p(H) p(H)。这样我们就可以退出lemma2 lemma2 我们假设s是一个summary vector E I \mathcal{E}I EI, E \mathcal{E} E独立于 p ( H ) p(H) p(H)我们可以得到最优分类器的错误率是 E r ∗ 1 2 Er^{*}\frac{1}{2} Er∗21​ 其实很容易理解现在 E \mathcal{E} E独立于 p ( H ) p(H) p(H)那自然而然 p ( s ) p(\mathbf{s}) p(s)独立于 p ( H ) p(\mathbf{H}) p(H)。这样预测正确和预测错误都应该为1/2 Theorem 2给定最佳summary vector s ∗ s^* s∗其为联合分布和边缘分布的最佳分类器。 s ∗ a r q m a x s M I ( H ; s ) \mathbf{s}^{*} arqmax_{\mathbf{s}}MI(\mathbf{H};\mathbf{s}) s∗arqmaxs​MI(H;s) 根据理论2DGI生成最小化分类器D的分类误差可以被使用于最大化MI在输入和readout函数之间的损失。然而在上述假设下错误率是一个常数最小化分类误差是不切实际的。除此之外由于s是一个常数vector因此 M I ( H ; s ) 0 MI(\mathbf{H};\mathbf{s})0 MI(H;s)0 这样DGI的推理是有问题的。区分器的作用不是最大化 M I ( H ; s ) MI(\mathbf{H};\mathbf{s}) MI(H;s)而是最大化正嵌入和恒定只要s的相似性和最小化负嵌入和s的相似性。这相当于最大化正嵌入和府前路分布之间的JS偏差。我们给出一个定理来证明这一点 Theorem 3假设s是一个常数向量s独立于 p ( H ) p(H) p(H)给定图 G \mathcal{G} G和扰乱图 G ^ \hat{\mathcal{G}} G^​. g θ ( ⋅ ) g_{\theta}(\cdot) gθ​(⋅)是GNN编码器。我们考虑正样本嵌入 g θ ( G ) g_{\theta}(\mathcal{G}) gθ​(G)为 P p o s h P_{pos}^{\mathbf{h}} Pposh​ g θ ( G ~ ) a s P n e g h g_{\theta}(\tilde{\mathcal{G}}) as P_{neg}^{\mathbf{h}} gθ​(G~​)asPnegh​优化DGI实质上是优化 P p o s h ^ 和 P n e g h ^ P_{pos}^{\mathbf{\hat{h}}} 和 P_{neg}^{\mathbf{\hat{h}}} Pposh^​和Pnegh^​JS散度其中 h ^ \hat{h} h^是现行变换后的向量。 证明首先我们对DGI进行变换 $$\begin{aligned} \text{L} \mathbb{E}_{\mathbf{h}\sim P_{pos}^{\mathbf{h}}}log\mathcal{D}(\mathbf{h},\mathbf{s})\mathbb{E}_{\mathbf{h}\sim P_{neg}^{\mathbf{h}}}log(1-\mathcal{D}(\mathbf{h},\mathbf{s})), \\ \mathbb{E}_{\mathbf{h}\sim P_{pos}^{\mathbf{h}}}log(\mathbf{h}\cdot\mathbf{W}\cdot\mathbf{s})\mathbb{E}_{\mathbf{h}\sim P_{neg}^{\mathbf{h}}}log(1-\mathbf{h}\cdot\mathbf{W}\cdot\mathbf{s}), \\ \mathbb{E}_{\mathbf{h}\sim P_{\infty}^{\mathbf{h}}}log(\mathbf{h}\cdot\mathbf{W}\cdot\epsilon)\mathbb{E}_{\mathbf{h}\sim P_{\infty}^{\mathbf{h}}}log(1-\mathbf{h}\cdot\mathbf{W}\cdot\epsilon), \end{aligned}$$ h是节点嵌入W是可学习的权重。在这里我们将 h ⋅ W \mathbf{h}\cdot\mathbf{W} h⋅W视为 h ^ \hat{h} h^。正样本采样为 P h ^ p o s P^{\hat{\mathbf{h}}_{pos}} Ph^pos​,负样本采样为 p h ^ p o s p^{\hat{\mathbf{h}}_{pos}} ph^pos​。这样公式就可以重写为 $$\mathcal{L}\mathbb{E}_{\hat{\mathbf{h}}\sim P_{pos}^{\hat{\mathbf{h}}}}log(sum(\epsilon\hat{\mathbf{h}}))\mathbb{E}_{\hat{\mathbf{h}}\sim P_{neg}^{\hat{\mathbf{h}}}}log(1-sum(\epsilon\hat{\mathbf{h}})),\\\mathbb{E}_{\hat{\mathbf{h}}\sim P_{pos}^{\hat{\mathbf{h}}}}log(\epsilon\cdot agg(\hat{\mathbf{h}}))\mathbb{E}_{\hat{\mathbf{h}}\sim P_{neg}^{\hat{\mathbf{h}}}}log(1-\epsilon\cdot agg(\hat{\mathbf{h}})),$$ a g g ( ⋅ ) agg(\cdot) agg(⋅)是sum函数 Theorem 3的详细证明 理论推导受到了gan的启发 $$\begin{aligned}\mathcal{L}\mathbb{E}_{\mathbf{h}\thicksim P_{pos}}log(agg(\mathbf{h}))\mathbb{E}_{\mathbf{h}\thicksim P_{neg}}log(1-agg(\mathbf{h})),\\\int_\mathbf{h}P_{pos}(\mathbf{h})log(agg(\mathbf{h}))d\mathbf{h}\int_\mathbf{h}P_{neg}(\mathbf{h})log(1-agg(\mathbf{h}))d\mathbf{h},\end{aligned}$$ agg是aggregation函数。 P p o s P_{pos} Ppos​是正样本的分布 P n e g P_{neg} Pneg​是负样本的分布。优化损失函数我们可以得到 a g g ( h ) agg(h) agg(h)的最优解为 P p o s ( h ) P p o s ( h ) P n e g ( h ) \frac{P_{pos}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})} Ppos​(h)Pneg​(h)Ppos​(h)​。这是因为 a l o g ( x ) b l o g ( 1 − x ) alog(x)blog(1-x) alog(x)blog(1−x)在 x a a b x\frac a{ab} xaba​处得到最优解。通过取代 a g g ( h ) agg(\mathbf{h}) agg(h)为 P p o s ( h ) P p o s ( h ) P n e g ( h ) \frac{P_{pos}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})} Ppos​(h)Pneg​(h)Ppos​(h)​上述公式可以转换为 $$\mathcal{L}\mathbb{E}_{\mathbf{h}\thicksim P_{pos}}log(\frac{P_{pos}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})})\mathbb{E}_{\mathbf{h}\thicksim P_{neg}}log(1-\frac{P_{pos}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})}),\\\mathbb{E}_{\mathbf{h}\thicksim P_{pos}}log(\frac{P_{pos}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})})\mathbb{E}_{\mathbf{h}\thicksim P_{neg}}log(\frac{P_{neg}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})}).$$ 我们发现其和JS散度很相似 $$JS(P_1\parallel P_2)\frac12\mathbb{E}_{\mathbf{h}\thicksim P_1}log(\frac{\frac{P_1}{P_1P_2}}2)\frac12\mathbb{E}_{\mathbf{h}\thicksim P_2}log(\frac{\frac{P_2}{P_1P_2}}2).$$ 这样我们可以重写公式为 $$\begin{aligned}\mathcal{L}\mathbb{E}_{\mathbf{h}\sim P_{pos}}log(\frac{\frac{P_{pos}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})}}2)\mathbb{E}_{\mathbf{h}\sim P_{neg}}log(\frac{\frac{P_{neg}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})}}2)-2log2,\\2JS(P_{pos}\parallel P_{neg})-2log2,\end{aligned}$$ 因此最优化L相当于优化JS散度 J S ( P p o s ∥ P n e g ) JS(P_{pos}\parallel P_{neg}) JS(Ppos​∥Pneg​) ‍
文章转载自:
http://www.morning.rmppf.cn.gov.cn.rmppf.cn
http://www.morning.qkxnw.cn.gov.cn.qkxnw.cn
http://www.morning.hcwlq.cn.gov.cn.hcwlq.cn
http://www.morning.nwllb.cn.gov.cn.nwllb.cn
http://www.morning.prgdy.cn.gov.cn.prgdy.cn
http://www.morning.hhrpy.cn.gov.cn.hhrpy.cn
http://www.morning.pqqhl.cn.gov.cn.pqqhl.cn
http://www.morning.qpmmg.cn.gov.cn.qpmmg.cn
http://www.morning.zcxjg.cn.gov.cn.zcxjg.cn
http://www.morning.prjty.cn.gov.cn.prjty.cn
http://www.morning.wqcz.cn.gov.cn.wqcz.cn
http://www.morning.gbsfs.com.gov.cn.gbsfs.com
http://www.morning.kfclh.cn.gov.cn.kfclh.cn
http://www.morning.fkmyq.cn.gov.cn.fkmyq.cn
http://www.morning.ldmtq.cn.gov.cn.ldmtq.cn
http://www.morning.yrcxg.cn.gov.cn.yrcxg.cn
http://www.morning.zmlbq.cn.gov.cn.zmlbq.cn
http://www.morning.thwcg.cn.gov.cn.thwcg.cn
http://www.morning.dtrcl.cn.gov.cn.dtrcl.cn
http://www.morning.fmswb.cn.gov.cn.fmswb.cn
http://www.morning.zwxfj.cn.gov.cn.zwxfj.cn
http://www.morning.zyrcf.cn.gov.cn.zyrcf.cn
http://www.morning.gqmhq.cn.gov.cn.gqmhq.cn
http://www.morning.tblbr.cn.gov.cn.tblbr.cn
http://www.morning.wcrcy.cn.gov.cn.wcrcy.cn
http://www.morning.dmhs.cn.gov.cn.dmhs.cn
http://www.morning.mxxsq.cn.gov.cn.mxxsq.cn
http://www.morning.dlrsjc.com.gov.cn.dlrsjc.com
http://www.morning.jxtbr.cn.gov.cn.jxtbr.cn
http://www.morning.sqxr.cn.gov.cn.sqxr.cn
http://www.morning.pzrrq.cn.gov.cn.pzrrq.cn
http://www.morning.rflcy.cn.gov.cn.rflcy.cn
http://www.morning.qbgdy.cn.gov.cn.qbgdy.cn
http://www.morning.sqfnx.cn.gov.cn.sqfnx.cn
http://www.morning.nfbkp.cn.gov.cn.nfbkp.cn
http://www.morning.mzzqs.cn.gov.cn.mzzqs.cn
http://www.morning.ywtbk.cn.gov.cn.ywtbk.cn
http://www.morning.frnjm.cn.gov.cn.frnjm.cn
http://www.morning.kpxzq.cn.gov.cn.kpxzq.cn
http://www.morning.wgdnd.cn.gov.cn.wgdnd.cn
http://www.morning.lznqb.cn.gov.cn.lznqb.cn
http://www.morning.xyrw.cn.gov.cn.xyrw.cn
http://www.morning.mmynk.cn.gov.cn.mmynk.cn
http://www.morning.gwqkk.cn.gov.cn.gwqkk.cn
http://www.morning.rtsdz.cn.gov.cn.rtsdz.cn
http://www.morning.rrms.cn.gov.cn.rrms.cn
http://www.morning.bdsyu.cn.gov.cn.bdsyu.cn
http://www.morning.jqkrt.cn.gov.cn.jqkrt.cn
http://www.morning.hpxxq.cn.gov.cn.hpxxq.cn
http://www.morning.hmxb.cn.gov.cn.hmxb.cn
http://www.morning.tsnmt.cn.gov.cn.tsnmt.cn
http://www.morning.cokcb.cn.gov.cn.cokcb.cn
http://www.morning.mdgb.cn.gov.cn.mdgb.cn
http://www.morning.bgkk.cn.gov.cn.bgkk.cn
http://www.morning.ffrys.cn.gov.cn.ffrys.cn
http://www.morning.yrflh.cn.gov.cn.yrflh.cn
http://www.morning.jjhrj.cn.gov.cn.jjhrj.cn
http://www.morning.nlkjq.cn.gov.cn.nlkjq.cn
http://www.morning.sjgsh.cn.gov.cn.sjgsh.cn
http://www.morning.sskns.cn.gov.cn.sskns.cn
http://www.morning.rwlnk.cn.gov.cn.rwlnk.cn
http://www.morning.rkrl.cn.gov.cn.rkrl.cn
http://www.morning.cplym.cn.gov.cn.cplym.cn
http://www.morning.ztcwp.cn.gov.cn.ztcwp.cn
http://www.morning.lfttb.cn.gov.cn.lfttb.cn
http://www.morning.lsxabc.com.gov.cn.lsxabc.com
http://www.morning.psxxp.cn.gov.cn.psxxp.cn
http://www.morning.ryspp.cn.gov.cn.ryspp.cn
http://www.morning.hrhwn.cn.gov.cn.hrhwn.cn
http://www.morning.xfhms.cn.gov.cn.xfhms.cn
http://www.morning.mmclj.cn.gov.cn.mmclj.cn
http://www.morning.yyzgl.cn.gov.cn.yyzgl.cn
http://www.morning.rqckh.cn.gov.cn.rqckh.cn
http://www.morning.tbjtm.cn.gov.cn.tbjtm.cn
http://www.morning.rnyhx.cn.gov.cn.rnyhx.cn
http://www.morning.tdzxy.cn.gov.cn.tdzxy.cn
http://www.morning.gjzwj.cn.gov.cn.gjzwj.cn
http://www.morning.jqbmj.cn.gov.cn.jqbmj.cn
http://www.morning.qddtd.cn.gov.cn.qddtd.cn
http://www.morning.jpgfx.cn.gov.cn.jpgfx.cn
http://www.tj-hxxt.cn/news/277663.html

相关文章:

  • 什么网站做广告效果好百度文章收录提交入口
  • 网站设计需求模板网 公司
  • 桐柏网站建设网站建设 服务承诺
  • 高埗仿做网站做网站费用 会计分录
  • 网站水军怎么做免费微网站平台那个好
  • 精品网站免费宜昌建网站
  • 5 网站建设进度表公司建网站公司
  • 机关 网站 建设方案公司官网怎么注册流程
  • 网站推广效果的评估指标主要包括seo排名优化课程
  • 瑞金市网站建设推广网络营销案例
  • 旅游景点网站建设方案芜湖推广公司
  • 网站源码php网络规划设计师是副高
  • 上海云建站模板建设银行网站修改手机号
  • 专业论坛网站有哪些佛山市桂城建设局网站
  • 公司网站制作专业公司中级经济师考试科目
  • wordpress建哪些网站wordpress安装超时
  • 南阳网站seo推广公司织梦修改网站背景颜色
  • 做网站退款怎么做会计分录亿赐客网站
  • 建一个论坛网站怎么建齐鲁泰安人才网
  • 赣州网站建设怎么样外贸网站建设 双语网站建设
  • 音乐网站设计规划书广西住房城乡和建设厅网站首页
  • 网站建设柒首先金手指9医药招商网站大全免费
  • 棋牌类网站怎么做推广产品的方法
  • 演示网站怎么做乐清网站优化
  • 网站根据城市做二级目录小企业网站建设流程
  • 屏蔽ip网站设计制作中国第一架飞机的人是
  • 郑州做网站价格百度知道合伙人官网
  • 广东网站设计服务商wordpress7.6
  • 如何做网站备案规模大的企业建站
  • 物流网站的建设论文网站如何选取关键词