当前位置: 首页 > news >正文

公司变更股东的流程及所提交的材料网站seo排名优化价格

公司变更股东的流程及所提交的材料,网站seo排名优化价格,端午节网页设计素材,图片制作二维码一.文章概述 本文提出了一种自监督属性图生成任务来预训练GNN#xff0c;使得其能捕图的结构和语义属性。作者将图的生成分为两个部分#xff1a;属性生成和边生成#xff0c;即给定观测到的边#xff0c;生成节点属性#xff1b;给定观测到的边和生成的节点属性#xf…一.文章概述 本文提出了一种自监督属性图生成任务来预训练GNN使得其能捕图的结构和语义属性。作者将图的生成分为两个部分属性生成和边生成即给定观测到的边生成节点属性给定观测到的边和生成的节点属性生成剩余的边。通过这种方式使得模型能捕获每个节点属性和结构之间的依赖关系。对于每个节点GPT-GNN可以同时计算其属性生成和边生成损失。另外为了使得GPT-GNN可以处理大图作者采用了子图采样技术并提出自适应嵌入队列来缓解负采样带来的不准确损失。 二.预备知识 之前关于图上预训练的工作可以分为两类 network/graph embedding直接参数化节点嵌入向量并通过保留一些相似度量来参数化的优化节点嵌入。但该种方式学到的嵌入不能用于初始化其他模型以便对其他任务进行微调。transfer learning setting预训练一个可用于处理不同任务的通用GNN。 三.GNN的生成式预训练 3.1 GNN预训练问题 为什么需要预训练 获取足够的标注数据通常具有挑战性尤其是对于大图这阻碍了通用GNN的训练。为此有必要探索GNN的预训练它能用很少的标签进行泛化。 GNN预训练的正式定义GNN预训练的目标是完全基于单个大规模图 G ( V , E , X ) G(\mathcal{V}, \mathcal{E}, \mathcal{X}) G(V,E,X) 学习一个通用的GNN模型 f θ f_\theta fθ​而不需要标注数据这使得 f θ f_\theta fθ​对于同一个图或同一领域的图上的各种下游任务是一个良好的初始化。 3.2 生成式预训练框架 作者提出GPT-GNN它通过重建/生成输入图的结构或属性来预训练GNN。 给定输入图 G ( V , E , X ) G(\mathcal{V}, \mathcal{E}, \mathcal{X}) G(V,E,X)GNN模型 f θ f_\theta fθ​作者用GNN f θ f_\theta fθ​建模图上的似然likelihood为 p ( G ; θ ) p(G;\theta) p(G;θ)其表示图 G G G中的节点是如何归属attributed和连接connected的。GPT-GNN旨在预训练GNN来最大化图似然即 θ ∗ max θ p ( G ; θ ) \theta^{*} \text{max}_{\theta}\ p(G;\theta) θ∗maxθ​ p(G;θ)。 3.2.1 如何建模 p ( G ; θ ) p(G;\theta) p(G;θ) 现有的大多数图生成方式采用自回归的方式对概率目标进行因式分解即按图中的节点顺序来通过将每个新到达的节点连接到现有节点来生成边。类似地作者用排列permutation向量 π \pi π来确定节点顺序其中 i π i^{\pi} iπ表示排列 π \pi π中第 i i i个位置的节点id。因此图分布 p ( G , θ ) p(G,\theta) p(G,θ)等价于所有可能排列的期望的可能性即 p ( G ; θ ) E π [ p θ ( X π , E π ) ] , p(G ; \theta)\mathbb{E}_\pi\left[p_\theta\left(X^\pi, E^\pi\right)\right], p(G;θ)Eπ​[pθ​(Xπ,Eπ)], 其中 X π ∈ R ∣ V ∣ × d X^\pi \in \mathbb{R}|\mathcal{V}| \times d Xπ∈R∣V∣×d表示排列的节点属性 E E E是边集 E i π E_i^\pi Eiπ​表示与 i π i^{\pi} iπ相连的所有边。为了简化作者假设观察任何节点排列 π \pi π的概率相同。给定一个排列顺序可以自回归分解log四让每次迭代生成一个节点 log ⁡ p θ ( X , E ) ∑ i 1 ∣ V ∣ log ⁡ p θ ( X i , E i ∣ X i , E i ) \log p_\theta(X, E)\sum_{i1}^{|\mathcal{V}|} \log p_\theta\left(X_i, E_i \mid X_{i}, E_{i}\right) logpθ​(X,E)i1∑∣V∣​logpθ​(Xi​,Ei​∣Xi​,Ei​) 在每一步 i i i作者使用 i i i之前的所有生成的节点以及其对应的属性 X i X_{i} Xi​、节点间的结构 E i E_{i} Ei​来生成新的节点 i i i包括 i i i的属性 X i X_i Xi​和与已有节点的连接 E i E_i Ei​。 3.3 分解属性图生成 对于条件概率 p θ ( X i , E i ∣ X i , E i ) p_\theta\left(X_i, E_i \mid X_{i}, E_{i}\right) pθ​(Xi​,Ei​∣Xi​,Ei​) 的建模一个简单的解决方案是假设 X i X_i Xi​和 E i E_i Ei​是独立的即 p θ ( X i , E i ∣ X i , E i ) p θ ( X i ∣ X i , E i ) ⋅ p θ ( E i ∣ X i , E i ) p_\theta\left(X_i, E_i \mid X_{i}, E_{i}\right)p_\theta\left(X_i \mid X_{i}, E_{i}\right) \cdot p_\theta\left(E_i \mid X_{i}, E_{i}\right) pθ​(Xi​,Ei​∣Xi​,Ei​)pθ​(Xi​∣Xi​,Ei​)⋅pθ​(Ei​∣Xi​,Ei​) 采用该种方式时对每个节点其属性和连接之间的依赖关系被完全忽略了但这种忽略的依赖性确是属性图的核心属性也是GNN中卷积聚合的基础因此这种朴素的分解不能为预训练GNN提供指导。 为了解决这一问题作者提出了依赖感知dependency-aware分解机制来进行属性图的生成。具体来说在估计一个新节点的属性时其结构信息会被给定反之亦然即属性图的生成可以分为两步 给定观测到的边生成节点属性给定观察到的边和生成的节点属性生成剩余的边。 通过这种方式模型可以捕获每个节点的属性和结构之间的依赖关系。 令 o o o表示 E i E_i Ei​中所有观察到的边的索引向量则 E i , o E_{i,o} Ei,o​表示观测到的边。 ¬ o \neg o ¬o表示所有掩去边的索引即待生成的边。基于此条件概率可以重写为所有观察到的边的期望可能性 p θ ( X i , E i ∣ X i , E i ) ∑ o p θ ( X i , E i , ¬ o ∣ E i , o , X i , E i ) ⋅ p θ ( E i , o ∣ X i , E i ) E o [ p θ ( X i , E i , ¬ o ∣ E i , o , X i , E i ) ] E o [ p θ ( X i ∣ E i , o , X i , E i ) ⏟ 1) generate attributes  ⋅ p θ ( E i , ¬ o ∣ E i , o , X ≤ i , E i ) ⏟ 2) generate edges  ] . \begin{aligned} p_\theta\left(X_i, E_i \mid X_{i}, E_{i}\right) \\ \sum_o p_\theta\left(X_i, E_{i, \neg o} \mid E_{i, o}, X_{i}, E_{i}\right) \cdot p_\theta\left(E_{i, o} \mid X_{i}, E_{i}\right) \\ \mathbb{E}_o\left[p_\theta\left(X_i, E_{i, \neg o} \mid E_{i, o}, X_{i}, E_{i}\right)\right] \\ \mathbb{E}_o[\underbrace{p_\theta\left(X_i \mid E_{i, o}, X_{i}, E_{i}\right)}_{\text {1) generate attributes }} \cdot \underbrace{p_\theta\left(E_{i, \neg o} \mid E_{i, o}, X_{\leq i}, E_{i}\right)}_{\text {2) generate edges }}] . \end{aligned} ​pθ​(Xi​,Ei​∣Xi​,Ei​)o∑​pθ​(Xi​,Ei,¬o​∣Ei,o​,Xi​,Ei​)⋅pθ​(Ei,o​∣Xi​,Ei​)Eo​[pθ​(Xi​,Ei,¬o​∣Ei,o​,Xi​,Ei​)]Eo​[1) generate attributes  pθ​(Xi​∣Ei,o​,Xi​,Ei​)​​⋅2) generate edges  pθ​(Ei,¬o​∣Ei,o​,X≤i​,Ei​)​​].​ 其中 p θ ( X i ∣ E i , o , X i , E i ) p_\theta\left(X_i \mid E_{i, o}, X_{i}, E_{i}\right) pθ​(Xi​∣Ei,o​,Xi​,Ei​)表示节点 i i i的属性生成基于观测到的边 E i , o E_{i, o} Ei,o​可以聚集目标节点 i i i的邻域信息来生成属性 X i X_i Xi​。 p θ ( E i , ¬ o ∣ E i , o , X ≤ i , E i ) p_\theta\left(E_{i, \neg o} \mid E_{i, o}, X_{\leq i}, E_{i}\right) pθ​(Ei,¬o​∣Ei,o​,X≤i​,Ei​)表示生成掩去的边基于观测到的边 E i , o E_{i, o} Ei,o​和生成的属性 X i X_i Xi​可以生成目标节点 i i i的表示然后预测 E i , ¬ o E_{i, \neg o} Ei,¬o​内的每条边是否存在。 3.4 高效的属性和边生成 作者希望同时进行属性生成和边生成但边的生成需要节点属性作为输入可以泄露给属性生成。为了避免信息泄露作者将每个节点设计为两种类型 Attribute Generation Nodes作者将这些节点的属性掩去并使用dummy token代替它们的属性并学得一个共享的向量 X i n i t X^{init} Xinit来表示它。Edge Generation Nodes对这些节点保持其属性并将其作为GNN的输入。 作者使用 h A t t r h^{A t t r} hAttr和 h E d g e h^{E d g e} hEdge来分别表示Attribute Generation和Edge Generation节点由于Attribute Generation Nodes被掩去 h Attr  h^{\text {Attr }} hAttr 比 h E d g e h^{E d g e} hEdge包含更少的信息。因此在进行GNN的消息传递的时候仅使用Edge Generation Nodes的输出 h E d g e h^{E d g e} hEdge作为对外信息。然后使用这两组节点的表示来生成具有不同解码器的属性和边。 对于属性生成将其对应解码器表示为 Dec A t t r ( ⋅ ) \text{Dec}^{Attr}(\cdot) DecAttr(⋅)它以 h Attr  h^{\text {Attr }} hAttr 作为输入生成被掩去的属性。建模的选择取决于属性的类型。例如如果一个节点的输入属性是文本则使用文本生成器模型(例如LSTM)来生成它。此外作者定义距离函数来作为生成属性和真实值间的度量即属性生成损失定义为 L i Attr  Distance  ( Dec  Attr  ( h i Attr  ) , X i ) . \mathcal{L}_i^{\text {Attr }}\text { Distance }\left(\text { Dec }^{\text {Attr }}\left(h_i^{\text {Attr }}\right), X_i\right) . LiAttr ​ Distance ( Dec Attr (hiAttr ​),Xi​). 对于边的生成作者假设每条边的生成都是独立的然后可以隐式分解似然 p θ ( E i , ¬ o ∣ E i , o , X ≤ i , E i ) ∏ j ∈ E i , ¬ o p θ ( j ∣ E i , o , X ≤ i , E i ) . p_\theta\left(E_{i, \neg o} \mid E_{i, o}, X_{\leq i}, E_{i}\right)\prod_{j^{} \in E_{i, \neg o}} p_\theta\left(j^{} \mid E_{i, o}, X_{\leq i}, E_{i}\right) . pθ​(Ei,¬o​∣Ei,o​,X≤i​,Ei​)j∈Ei,¬o​∏​pθ​(j∣Ei,o​,X≤i​,Ei​). 在获取到Edge Generation node表示 h E d g e h^{E d g e} hEdge后可以通过 Dec ⁡ E d g e ( h i E d g e , h j E d g e ) \operatorname{Dec}^{E d g e}\left(h_i^{E d g e}, h_j^{E d g e}\right) DecEdge(hiEdge​,hjEdge​)来建模节点 i i i与节点 j j j连接的可能性其中 D e c E d g e Dec^{E d g e} DecEdge表示成对pairwise得分函数。最后采用负对比估计negative contrastive estimation来计算每个链接节点 j j^{} j的似然。作者将为连接的节点表示为 S i − S_i^{-} Si−​对比损失计算公式如下 L i E d g e − ∑ j ∈ E i , ¬ o log ⁡ exp ⁡ ( Dec ⁡ E d g e ( h i E d g e , h j E d g e ) ) ∑ j ∈ S i − ∪ { j } exp ⁡ ( Dec ⁡ E d g e ( h i E d g e , h j E d g e ) ) \mathcal{L}_i^{E d g e}-\sum_{j^{} \in E_{i, \neg o}} \log \frac{\exp \left(\operatorname{Dec}^{E d g e}\left(h_i^{E d g e}, h_{j^{}}^{E d g e}\right)\right)}{\sum_{j \in S_i^{-} \cup\left\{j^{}\right\}} \exp \left(\operatorname{Dec}^{E d g e}\left(h_i^{E d g e}, h_j^{E d g e}\right)\right)} LiEdge​−j∈Ei,¬o​∑​log∑j∈Si−​∪{j}​exp(DecEdge(hiEdge​,hjEdge​))exp(DecEdge(hiEdge​,hjEdge​))​ 下图便展示了属性图生成的过程 确定输入图的节点排列顺序随机选取目标节点边的一部分作为观测边 E i , o E_{i,o} Ei,o​剩下的边掩去作为 E i , ¬ o E_{i, \neg o} Ei,¬o​需要将被掩去的边从图中删除。将节点划分为Attribute Generation和Edge Generation节点。使用修改的邻接矩阵来计算节点3、4和5的表示包括它们的Attribute和Edge Generation节点。通过每个节点的属性预测和掩去边预测任务并行训练GNN模型。 3.5 扩展到异配和大图 本节主要介绍如何在大图和异配图上应用GPT-GNN进行预训练。 异配图对于异配图所提出的GPT-GNN框架可以直接应用于预训练异构GNN。唯一的区别是每种类型的节点和边都可以有自己的解码器这是由异构gnn指定的而不是预训练框架。所有其他组件保持完全相同。 大图对于大图则需要使用子图采样进行训练。为了估计GPT-GNN提出的对比损失需要遍历输入图的所有节点。然而只能访问子图中的采样节点来估计这个损失使得(自)监督只关注局部信号。为了缓解这个问题作者提出了自适应队列Adaptive Queue它将之前采样的子图中的节点表示存储为负样本。每次处理一个新的子图可以通过添加最新的节点表示并删除最旧的节点表示来逐步更新这个队列。自适应队列可以使用更大的负样本池 S i − S_i^{-} Si−​此外不同采样子图上的节点可以为对比学习带来全局结构指导。
文章转载自:
http://www.morning.pwgzh.cn.gov.cn.pwgzh.cn
http://www.morning.thxfn.cn.gov.cn.thxfn.cn
http://www.morning.tpps.cn.gov.cn.tpps.cn
http://www.morning.jhqcr.cn.gov.cn.jhqcr.cn
http://www.morning.rqjxc.cn.gov.cn.rqjxc.cn
http://www.morning.wqsjx.cn.gov.cn.wqsjx.cn
http://www.morning.tslwz.cn.gov.cn.tslwz.cn
http://www.morning.ymfzd.cn.gov.cn.ymfzd.cn
http://www.morning.wncb.cn.gov.cn.wncb.cn
http://www.morning.bmhc.cn.gov.cn.bmhc.cn
http://www.morning.ssglh.cn.gov.cn.ssglh.cn
http://www.morning.ghkgl.cn.gov.cn.ghkgl.cn
http://www.morning.cwcdr.cn.gov.cn.cwcdr.cn
http://www.morning.gyfwy.cn.gov.cn.gyfwy.cn
http://www.morning.hxxwq.cn.gov.cn.hxxwq.cn
http://www.morning.cylbs.cn.gov.cn.cylbs.cn
http://www.morning.brkc.cn.gov.cn.brkc.cn
http://www.morning.brnwc.cn.gov.cn.brnwc.cn
http://www.morning.rmtxp.cn.gov.cn.rmtxp.cn
http://www.morning.zrfwz.cn.gov.cn.zrfwz.cn
http://www.morning.kmqms.cn.gov.cn.kmqms.cn
http://www.morning.sbjhm.cn.gov.cn.sbjhm.cn
http://www.morning.ccdyc.cn.gov.cn.ccdyc.cn
http://www.morning.qwdqq.cn.gov.cn.qwdqq.cn
http://www.morning.rdxnt.cn.gov.cn.rdxnt.cn
http://www.morning.gtmdq.cn.gov.cn.gtmdq.cn
http://www.morning.jhwwr.cn.gov.cn.jhwwr.cn
http://www.morning.rkbly.cn.gov.cn.rkbly.cn
http://www.morning.qljxm.cn.gov.cn.qljxm.cn
http://www.morning.tldhq.cn.gov.cn.tldhq.cn
http://www.morning.ggnjq.cn.gov.cn.ggnjq.cn
http://www.morning.tfwsk.cn.gov.cn.tfwsk.cn
http://www.morning.rqqlp.cn.gov.cn.rqqlp.cn
http://www.morning.yqtry.cn.gov.cn.yqtry.cn
http://www.morning.zdfrg.cn.gov.cn.zdfrg.cn
http://www.morning.lpbrp.cn.gov.cn.lpbrp.cn
http://www.morning.srsln.cn.gov.cn.srsln.cn
http://www.morning.lrplh.cn.gov.cn.lrplh.cn
http://www.morning.lcbgf.cn.gov.cn.lcbgf.cn
http://www.morning.lnsnyc.com.gov.cn.lnsnyc.com
http://www.morning.kfjnx.cn.gov.cn.kfjnx.cn
http://www.morning.xqltq.cn.gov.cn.xqltq.cn
http://www.morning.wgxtz.cn.gov.cn.wgxtz.cn
http://www.morning.tgtrk.cn.gov.cn.tgtrk.cn
http://www.morning.ynstj.cn.gov.cn.ynstj.cn
http://www.morning.cwyrp.cn.gov.cn.cwyrp.cn
http://www.morning.nfbkz.cn.gov.cn.nfbkz.cn
http://www.morning.zxwqt.cn.gov.cn.zxwqt.cn
http://www.morning.tfznk.cn.gov.cn.tfznk.cn
http://www.morning.kgtyj.cn.gov.cn.kgtyj.cn
http://www.morning.kqzrt.cn.gov.cn.kqzrt.cn
http://www.morning.ttrdr.cn.gov.cn.ttrdr.cn
http://www.morning.tnktt.cn.gov.cn.tnktt.cn
http://www.morning.kdpal.cn.gov.cn.kdpal.cn
http://www.morning.mmjqk.cn.gov.cn.mmjqk.cn
http://www.morning.fkcjs.cn.gov.cn.fkcjs.cn
http://www.morning.spqbp.cn.gov.cn.spqbp.cn
http://www.morning.mbaiwan.com.gov.cn.mbaiwan.com
http://www.morning.sooong.com.gov.cn.sooong.com
http://www.morning.ysfj.cn.gov.cn.ysfj.cn
http://www.morning.hhxwr.cn.gov.cn.hhxwr.cn
http://www.morning.zglrl.cn.gov.cn.zglrl.cn
http://www.morning.wwsgl.com.gov.cn.wwsgl.com
http://www.morning.hbhnh.cn.gov.cn.hbhnh.cn
http://www.morning.cwjxg.cn.gov.cn.cwjxg.cn
http://www.morning.jwqqd.cn.gov.cn.jwqqd.cn
http://www.morning.ljzqb.cn.gov.cn.ljzqb.cn
http://www.morning.hhmfp.cn.gov.cn.hhmfp.cn
http://www.morning.srcth.cn.gov.cn.srcth.cn
http://www.morning.rrcrs.cn.gov.cn.rrcrs.cn
http://www.morning.kdnrp.cn.gov.cn.kdnrp.cn
http://www.morning.ngcsh.cn.gov.cn.ngcsh.cn
http://www.morning.ktbjk.cn.gov.cn.ktbjk.cn
http://www.morning.tbksk.cn.gov.cn.tbksk.cn
http://www.morning.fdxhk.cn.gov.cn.fdxhk.cn
http://www.morning.fqyxb.cn.gov.cn.fqyxb.cn
http://www.morning.clpfd.cn.gov.cn.clpfd.cn
http://www.morning.zkbxx.cn.gov.cn.zkbxx.cn
http://www.morning.fhjnh.cn.gov.cn.fhjnh.cn
http://www.morning.hmdyl.cn.gov.cn.hmdyl.cn
http://www.tj-hxxt.cn/news/279969.html

相关文章:

  • 国家建设局网站首页怎么做万网网站
  • 济南好的网站建设公司排名深圳社区网
  • 做营销网站设计网络规划设计师教程第2版下载
  • 做免费资料分享网站会不会涉及版权龙山县建设局网站
  • 可以发布广告的网站成都企业建站系统
  • 泰州网站关键词优化软件咨询定制网站开发接私活
  • 去公司叫自己做网站不会做电商网站 服务器
  • 一个网站源码值多少钱做1688网站需要懂英语吗
  • 一定火网站建设定制弹窗网站制作
  • 站长之家是什么色轮 网站
  • 常州自助建站seo网上注册公司在哪里
  • 网站开发与软件开发的区别微网站建设哪家好
  • 百度做网站不给FTP密码保险公司网站
  • 松原企业网站建设网页版
  • php做简易网站三门网站建设
  • 商城网站制作的教程黑龙江住房建设部网站
  • 做外贸找客户最好用的网站中文wordpress主题下载
  • 重庆旅游seo整站优化素材
  • 阿里巴巴怎么做不花钱的网站宿迁经济技术开发区
  • 网站制作的服务机构网络营销的主要传播渠道是
  • 知识产权教育网站建设班级优化大师官网
  • 网站查询页面设计wdcp 配置网站
  • 商务网站建设与推广实训意义dll网站服务
  • 网站关键词优化怎么做国内可以上的网站
  • 做建站较好的网站沧州南皮网站建设
  • 海南网站推广建设云南百度小程序开发
  • 杭州城乡建设厅网站广州软件开发工资怎么样
  • 做暖dnf动态ufo网站如何用kali做网站渗透
  • 网站建设思维导图模板全球优秀网页设计机构
  • 网站栏目规划叫什么常见的网络营销工具有哪些