wordpress建站教程jiuyou,营销型企业网站建设的功能,京东网上商城书店官网,中国推广网GGD证明推导学习
这篇文章#xff0c;建议先看相关的论文。这篇是我读证明的感悟#xff0c;因此#xff0c;不会论文的主体内容
首先#xff0c;给出命题#xff1a;
DGI的sumary向量是一个常数
给定一个图#xff1a; G { X ∈ R N D , A ∈ R N N } \mathcal{G…GGD证明推导学习
这篇文章建议先看相关的论文。这篇是我读证明的感悟因此不会论文的主体内容
首先给出命题
DGI的sumary向量是一个常数
给定一个图 G { X ∈ R N × D , A ∈ R N × N } \mathcal{G}\{\mathbf{X}\in\mathbb{R}^{N\times D},\mathbf{A}\in\mathbb{R}^{N\times N}\} G{X∈RN×D,A∈RN×N}以及一个GNN编码器 g g g我们将其嵌入表示为 H σ ( g ( G ) ) \mathbf{H}\sigma(g(\mathcal{G})) Hσ(g(G)) σ \sigma σ是非线性激活函数。通过对summary向量s进行激活函数操作我们可以得到ReLUPreluLReLU的值为0.5sigmoid的值为0.62。及我们可以得到 $$s\mathcal{E}I \tag{1}$$
注这个是有详细的理论证明的但是不是我阅读的主要部分。详细证明见论文的A.1
GGD与DGI的联系
既然我们知道dgi的summary向量s为1了那我们就可以简化整个dgi的流程
简化DGI
假如设置 s ϵ I I \mathbf{s}\mathbf{\epsilon}\mathbf{I}\mathbf{I} sϵII定义区分器为 D ( ⋅ ) \mathcal{D}(\cdot) D(⋅)我们就可以重写dgi为 $$\begin{aligned} \mathcal{L}_{DGI} \frac1{2N}(\sum_{i1}^N\log\mathcal{D}(\mathbf{h}_i,\mathbf{s})\log(1-\mathcal{D}(\tilde{\mathbf{h}}_i,\mathbf{s}))), \\ \frac1{2N}(\sum_{i1}^N\log(\mathbf{h}_i\cdot\mathbf{s})\log(1-\tilde{\mathbf{h}_i}\cdot\mathbf{s}))), \\ \frac1{2N}(\sum_{i1}^N\log(sum(\mathbf{h}_i))\log(1-sum(\tilde{\mathbf{h}}_i))), \end{aligned} \tag{2}$$
其中区分器是 D ( h i , s ) σ s i g ( h i ⋅ W ⋅ s ) \mathcal{D}(\mathbf{h}_i,\mathbf{s})\sigma_{sig}(\mathbf{h}_i\cdot\mathbf{W}\cdot\mathbf{s}) D(hi,s)σsig(hi⋅W⋅s)这个在代码中是nn.bilinear如果代码看到这个公式就是左侧的区分器
我们定义 y ^ i a g g ( h i ) \hat{y}_{i}agg(\mathbf{h}_{i}) y^iagg(hi)那么整个公式可以简化为 $$\mathcal{L}_{BCE}-\frac{1}{2N}(\sum_{i1}^{2N}y_{i}\log\hat{y}_{i}(1-y_{i})\log(1-\hat{y}_{i})\tag{3}$$
DGI中的引理定义 { H g } g 1 ∣ H ∣ \{\mathbf{H}^{g}\}_{g1}^{|\mathbf{H}|} {Hg}g1∣H∣是一系列从图形中提取到的一系列节点的嵌入 p ( H ) p(\mathbf{H}) p(H) ∣ H ∣ \left|\mathbf{H}\right| ∣H∣是有限数量的元素。 p ( H g ) p ( H g ′ ) p(\mathbf{H}^{g})p(\mathbf{H}^{g\prime}) p(Hg)p(Hg′)。 R R R是readout函数其将 H g H^g Hg作为输入summary向量作为输出 s g \mathbf{s}^{g} sg. s g \mathbf{s}^{g} sg遵循边缘分布 p ( s ) p(\mathbf{s}) p(s)。我们可以得到联合分布 p ( H , s ) p(\mathbf{H},\mathbf{s}) p(H,s)与边缘分布 p ( H ) p ( s ) ˉ p(\mathbf{H})\bar{p(\mathbf{s})} p(H)p(s)ˉ之间最佳分类器错误率的上界是 E r ∗ 1 2 ∑ g 1 ∣ H ∣ p ( s g ) 2 Er^{*}\frac{1}{2}\sum_{g1}^{|\mathbf{H}|}p(\mathbf{s}^{g})^{2} Er∗21∑g1∣H∣p(sg)2
有公式1我们可以得到s是一个常量summary vector E I \mathcal{E}I EI, E \mathcal{E} E是一个常量。我们可以假设 E \mathcal{E} E独立于 p ( H ) p(H) p(H)实际上在本文先前的证明中我们已经证明 E \mathcal{E} E是常数。其肯定独立于 p ( H ) p(H) p(H)。这样我们就可以退出lemma2
lemma2 我们假设s是一个summary vector E I \mathcal{E}I EI, E \mathcal{E} E独立于 p ( H ) p(H) p(H)我们可以得到最优分类器的错误率是 E r ∗ 1 2 Er^{*}\frac{1}{2} Er∗21
其实很容易理解现在 E \mathcal{E} E独立于 p ( H ) p(H) p(H)那自然而然 p ( s ) p(\mathbf{s}) p(s)独立于 p ( H ) p(\mathbf{H}) p(H)。这样预测正确和预测错误都应该为1/2
Theorem 2给定最佳summary vector s ∗ s^* s∗其为联合分布和边缘分布的最佳分类器。 s ∗ a r q m a x s M I ( H ; s ) \mathbf{s}^{*} arqmax_{\mathbf{s}}MI(\mathbf{H};\mathbf{s}) s∗arqmaxsMI(H;s)
根据理论2DGI生成最小化分类器D的分类误差可以被使用于最大化MI在输入和readout函数之间的损失。然而在上述假设下错误率是一个常数最小化分类误差是不切实际的。除此之外由于s是一个常数vector因此 M I ( H ; s ) 0 MI(\mathbf{H};\mathbf{s})0 MI(H;s)0
这样DGI的推理是有问题的。区分器的作用不是最大化 M I ( H ; s ) MI(\mathbf{H};\mathbf{s}) MI(H;s)而是最大化正嵌入和恒定只要s的相似性和最小化负嵌入和s的相似性。这相当于最大化正嵌入和府前路分布之间的JS偏差。我们给出一个定理来证明这一点
Theorem 3假设s是一个常数向量s独立于 p ( H ) p(H) p(H)给定图 G \mathcal{G} G和扰乱图 G ^ \hat{\mathcal{G}} G^. g θ ( ⋅ ) g_{\theta}(\cdot) gθ(⋅)是GNN编码器。我们考虑正样本嵌入 g θ ( G ) g_{\theta}(\mathcal{G}) gθ(G)为 P p o s h P_{pos}^{\mathbf{h}} Pposh g θ ( G ~ ) a s P n e g h g_{\theta}(\tilde{\mathcal{G}}) as P_{neg}^{\mathbf{h}} gθ(G~)asPnegh优化DGI实质上是优化 P p o s h ^ 和 P n e g h ^ P_{pos}^{\mathbf{\hat{h}}} 和 P_{neg}^{\mathbf{\hat{h}}} Pposh^和Pnegh^JS散度其中 h ^ \hat{h} h^是现行变换后的向量。
证明首先我们对DGI进行变换 $$\begin{aligned} \text{L} \mathbb{E}_{\mathbf{h}\sim P_{pos}^{\mathbf{h}}}log\mathcal{D}(\mathbf{h},\mathbf{s})\mathbb{E}_{\mathbf{h}\sim P_{neg}^{\mathbf{h}}}log(1-\mathcal{D}(\mathbf{h},\mathbf{s})), \\ \mathbb{E}_{\mathbf{h}\sim P_{pos}^{\mathbf{h}}}log(\mathbf{h}\cdot\mathbf{W}\cdot\mathbf{s})\mathbb{E}_{\mathbf{h}\sim P_{neg}^{\mathbf{h}}}log(1-\mathbf{h}\cdot\mathbf{W}\cdot\mathbf{s}), \\ \mathbb{E}_{\mathbf{h}\sim P_{\infty}^{\mathbf{h}}}log(\mathbf{h}\cdot\mathbf{W}\cdot\epsilon)\mathbb{E}_{\mathbf{h}\sim P_{\infty}^{\mathbf{h}}}log(1-\mathbf{h}\cdot\mathbf{W}\cdot\epsilon), \end{aligned}$$
h是节点嵌入W是可学习的权重。在这里我们将 h ⋅ W \mathbf{h}\cdot\mathbf{W} h⋅W视为 h ^ \hat{h} h^。正样本采样为 P h ^ p o s P^{\hat{\mathbf{h}}_{pos}} Ph^pos,负样本采样为 p h ^ p o s p^{\hat{\mathbf{h}}_{pos}} ph^pos。这样公式就可以重写为 $$\mathcal{L}\mathbb{E}_{\hat{\mathbf{h}}\sim P_{pos}^{\hat{\mathbf{h}}}}log(sum(\epsilon\hat{\mathbf{h}}))\mathbb{E}_{\hat{\mathbf{h}}\sim P_{neg}^{\hat{\mathbf{h}}}}log(1-sum(\epsilon\hat{\mathbf{h}})),\\\mathbb{E}_{\hat{\mathbf{h}}\sim P_{pos}^{\hat{\mathbf{h}}}}log(\epsilon\cdot agg(\hat{\mathbf{h}}))\mathbb{E}_{\hat{\mathbf{h}}\sim P_{neg}^{\hat{\mathbf{h}}}}log(1-\epsilon\cdot agg(\hat{\mathbf{h}})),$$ a g g ( ⋅ ) agg(\cdot) agg(⋅)是sum函数
Theorem 3的详细证明
理论推导受到了gan的启发 $$\begin{aligned}\mathcal{L}\mathbb{E}_{\mathbf{h}\thicksim P_{pos}}log(agg(\mathbf{h}))\mathbb{E}_{\mathbf{h}\thicksim P_{neg}}log(1-agg(\mathbf{h})),\\\int_\mathbf{h}P_{pos}(\mathbf{h})log(agg(\mathbf{h}))d\mathbf{h}\int_\mathbf{h}P_{neg}(\mathbf{h})log(1-agg(\mathbf{h}))d\mathbf{h},\end{aligned}$$
agg是aggregation函数。 P p o s P_{pos} Ppos是正样本的分布 P n e g P_{neg} Pneg是负样本的分布。优化损失函数我们可以得到 a g g ( h ) agg(h) agg(h)的最优解为 P p o s ( h ) P p o s ( h ) P n e g ( h ) \frac{P_{pos}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})} Ppos(h)Pneg(h)Ppos(h)。这是因为 a l o g ( x ) b l o g ( 1 − x ) alog(x)blog(1-x) alog(x)blog(1−x)在 x a a b x\frac a{ab} xaba处得到最优解。通过取代 a g g ( h ) agg(\mathbf{h}) agg(h)为 P p o s ( h ) P p o s ( h ) P n e g ( h ) \frac{P_{pos}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})} Ppos(h)Pneg(h)Ppos(h)上述公式可以转换为 $$\mathcal{L}\mathbb{E}_{\mathbf{h}\thicksim P_{pos}}log(\frac{P_{pos}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})})\mathbb{E}_{\mathbf{h}\thicksim P_{neg}}log(1-\frac{P_{pos}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})}),\\\mathbb{E}_{\mathbf{h}\thicksim P_{pos}}log(\frac{P_{pos}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})})\mathbb{E}_{\mathbf{h}\thicksim P_{neg}}log(\frac{P_{neg}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})}).$$
我们发现其和JS散度很相似 $$JS(P_1\parallel P_2)\frac12\mathbb{E}_{\mathbf{h}\thicksim P_1}log(\frac{\frac{P_1}{P_1P_2}}2)\frac12\mathbb{E}_{\mathbf{h}\thicksim P_2}log(\frac{\frac{P_2}{P_1P_2}}2).$$
这样我们可以重写公式为 $$\begin{aligned}\mathcal{L}\mathbb{E}_{\mathbf{h}\sim P_{pos}}log(\frac{\frac{P_{pos}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})}}2)\mathbb{E}_{\mathbf{h}\sim P_{neg}}log(\frac{\frac{P_{neg}(\mathbf{h})}{P_{pos}(\mathbf{h})P_{neg}(\mathbf{h})}}2)-2log2,\\2JS(P_{pos}\parallel P_{neg})-2log2,\end{aligned}$$
因此最优化L相当于优化JS散度 J S ( P p o s ∥ P n e g ) JS(P_{pos}\parallel P_{neg}) JS(Ppos∥Pneg)
文章转载自: http://www.morning.rmppf.cn.gov.cn.rmppf.cn http://www.morning.qkxnw.cn.gov.cn.qkxnw.cn http://www.morning.hcwlq.cn.gov.cn.hcwlq.cn http://www.morning.nwllb.cn.gov.cn.nwllb.cn http://www.morning.prgdy.cn.gov.cn.prgdy.cn http://www.morning.hhrpy.cn.gov.cn.hhrpy.cn http://www.morning.pqqhl.cn.gov.cn.pqqhl.cn http://www.morning.qpmmg.cn.gov.cn.qpmmg.cn http://www.morning.zcxjg.cn.gov.cn.zcxjg.cn http://www.morning.prjty.cn.gov.cn.prjty.cn http://www.morning.wqcz.cn.gov.cn.wqcz.cn http://www.morning.gbsfs.com.gov.cn.gbsfs.com http://www.morning.kfclh.cn.gov.cn.kfclh.cn http://www.morning.fkmyq.cn.gov.cn.fkmyq.cn http://www.morning.ldmtq.cn.gov.cn.ldmtq.cn http://www.morning.yrcxg.cn.gov.cn.yrcxg.cn http://www.morning.zmlbq.cn.gov.cn.zmlbq.cn http://www.morning.thwcg.cn.gov.cn.thwcg.cn http://www.morning.dtrcl.cn.gov.cn.dtrcl.cn http://www.morning.fmswb.cn.gov.cn.fmswb.cn http://www.morning.zwxfj.cn.gov.cn.zwxfj.cn http://www.morning.zyrcf.cn.gov.cn.zyrcf.cn http://www.morning.gqmhq.cn.gov.cn.gqmhq.cn http://www.morning.tblbr.cn.gov.cn.tblbr.cn http://www.morning.wcrcy.cn.gov.cn.wcrcy.cn http://www.morning.dmhs.cn.gov.cn.dmhs.cn http://www.morning.mxxsq.cn.gov.cn.mxxsq.cn http://www.morning.dlrsjc.com.gov.cn.dlrsjc.com http://www.morning.jxtbr.cn.gov.cn.jxtbr.cn http://www.morning.sqxr.cn.gov.cn.sqxr.cn http://www.morning.pzrrq.cn.gov.cn.pzrrq.cn http://www.morning.rflcy.cn.gov.cn.rflcy.cn http://www.morning.qbgdy.cn.gov.cn.qbgdy.cn http://www.morning.sqfnx.cn.gov.cn.sqfnx.cn http://www.morning.nfbkp.cn.gov.cn.nfbkp.cn http://www.morning.mzzqs.cn.gov.cn.mzzqs.cn http://www.morning.ywtbk.cn.gov.cn.ywtbk.cn http://www.morning.frnjm.cn.gov.cn.frnjm.cn http://www.morning.kpxzq.cn.gov.cn.kpxzq.cn http://www.morning.wgdnd.cn.gov.cn.wgdnd.cn http://www.morning.lznqb.cn.gov.cn.lznqb.cn http://www.morning.xyrw.cn.gov.cn.xyrw.cn http://www.morning.mmynk.cn.gov.cn.mmynk.cn http://www.morning.gwqkk.cn.gov.cn.gwqkk.cn http://www.morning.rtsdz.cn.gov.cn.rtsdz.cn http://www.morning.rrms.cn.gov.cn.rrms.cn http://www.morning.bdsyu.cn.gov.cn.bdsyu.cn http://www.morning.jqkrt.cn.gov.cn.jqkrt.cn http://www.morning.hpxxq.cn.gov.cn.hpxxq.cn http://www.morning.hmxb.cn.gov.cn.hmxb.cn http://www.morning.tsnmt.cn.gov.cn.tsnmt.cn http://www.morning.cokcb.cn.gov.cn.cokcb.cn http://www.morning.mdgb.cn.gov.cn.mdgb.cn http://www.morning.bgkk.cn.gov.cn.bgkk.cn http://www.morning.ffrys.cn.gov.cn.ffrys.cn http://www.morning.yrflh.cn.gov.cn.yrflh.cn http://www.morning.jjhrj.cn.gov.cn.jjhrj.cn http://www.morning.nlkjq.cn.gov.cn.nlkjq.cn http://www.morning.sjgsh.cn.gov.cn.sjgsh.cn http://www.morning.sskns.cn.gov.cn.sskns.cn http://www.morning.rwlnk.cn.gov.cn.rwlnk.cn http://www.morning.rkrl.cn.gov.cn.rkrl.cn http://www.morning.cplym.cn.gov.cn.cplym.cn http://www.morning.ztcwp.cn.gov.cn.ztcwp.cn http://www.morning.lfttb.cn.gov.cn.lfttb.cn http://www.morning.lsxabc.com.gov.cn.lsxabc.com http://www.morning.psxxp.cn.gov.cn.psxxp.cn http://www.morning.ryspp.cn.gov.cn.ryspp.cn http://www.morning.hrhwn.cn.gov.cn.hrhwn.cn http://www.morning.xfhms.cn.gov.cn.xfhms.cn http://www.morning.mmclj.cn.gov.cn.mmclj.cn http://www.morning.yyzgl.cn.gov.cn.yyzgl.cn http://www.morning.rqckh.cn.gov.cn.rqckh.cn http://www.morning.tbjtm.cn.gov.cn.tbjtm.cn http://www.morning.rnyhx.cn.gov.cn.rnyhx.cn http://www.morning.tdzxy.cn.gov.cn.tdzxy.cn http://www.morning.gjzwj.cn.gov.cn.gjzwj.cn http://www.morning.jqbmj.cn.gov.cn.jqbmj.cn http://www.morning.qddtd.cn.gov.cn.qddtd.cn http://www.morning.jpgfx.cn.gov.cn.jpgfx.cn