当前位置: 首页 > news >正文

网站的404如何做免费风景视频素材下载

网站的404如何做,免费风景视频素材下载,phpcms做的网站有哪些,医院网站建设模板下载论文 https://arxiv.org/pdf/1706.02216 abstract 大图中节点的低维embedding已经被证明在各种预测任务中非常有用#xff0c;然而#xff0c;大多数现有的方法要求在embedding训练期间图中的所有节点都存在;这些先前的方法属于直推式#xff08;transductive#xff09…论文 https://arxiv.org/pdf/1706.02216 abstract 大图中节点的低维embedding已经被证明在各种预测任务中非常有用然而大多数现有的方法要求在embedding训练期间图中的所有节点都存在;这些先前的方法属于直推式transductive不能自然地推广到看不见的节点。这里我们介绍GraphSAGE一个通用的归纳式inductive框架它利用节点特征信息(例如文本属性)来有效地为以前未见过的数据生成节点embedding。 这里再整理一下之前提到的GCN和GAT其中GCN是属于inductive还是transductive似乎都各有簇拥这里可以参考这篇问答 How GCN can be an inductive method? - #2 by czkkkkkk - Questions - Deep Graph Library 引用这里的一个对话 - we say GraphSAGE is inductive because it can use sampling methods to predict the label of unseen nodes. On the contrary, GCN is transductive because the graph structure is fixed. -  Okay I’m confused… Why is there many articles stating that GCN is an inductive learning framework ? And, even two of you collaborators think it is inductive, check this post How to carry out the batch-wise training while using layer defined in DGL? - Questions - Deep Graph Library 5 (neo and mufeili). You can also see on this website : Graph Neural Networks (snap-stanford.github.io) 9 which comes from Stanford university and where Jure Leskovec teaches this course, that GCN has an inductive capacity. From my point of view, I think we can use GCN as an inductive method because it does not change the shape of weight matrixes when we add a new node to the graph. We just need to do get the node’ neighbors times their features times the learned weight matrixes. In the wend we just have to pass GCN(A[new_nodes], X, W_learned), with A[new_nodes] the line allowing to get the node’ neighbors, X the feature matrix and W_learned all the matrixes learned during the training of the model. I am really confused as you can see, beacause some say it is transductive, others say it is inductive. I know that originally it was tested in an transductive setting, but many sources accord to say it can be used inductively. Maybe it is because everyone does not have the same definition of transductive and inductive, yet they are straightforward definitions… In the end, I just want to know if a GCN model can, from a node totally unseen (not masked, really unseen) during the training, generate an embedding for this unseen node ? At the end of my GCN, I want to classify my node as 1 or 0, so I just put a linear layer with a sigmoid activation function. Thank you for your clarification. - Thanks for your interest in such a discussion. My understand may not be totally correct since I am not a GNN algorithm expertise. Here are my thoughts. Full graph GCN is not inductive because it only is applied for the whole graph and makes predictions for nodes that can be seen during training. Sampling-based GraphSAGE is inductive because it is able to apply sampling on unseen nodes. So the difference is whether sampling is applied or not. If sampling is available, both GCN and SAGE models can conduct inductive learning. neural network - What is the model architectural difference between transductive GCN and inductive GraphSAGE? - Data Science Stack Exchange a - The main novelty of GraphSAGE is a neighborhood sampling step (but this is independent of whether these models are used inductively or transductively). You can think of GraphSAGE as GCN with subsampled neighbors. In practice, both can be used inductively and transductively. The title of the GraphSAGE paper (Inductive representation learning) is unfortunately a bit misleading in that regard. The main benefit of the sampling step of GraphSAGE is scalability (but at the cost of higher variance gradients). - GraphSage provides a solution to address the problem DeepWalk embedding technique. As we know that DeepWalk embedding technique use transudative learning to extract features from a graph. If a node is added in the graph then we gain re-run the algorithm to get embedding of all node. So, DeepWalk besed GNN is not suitable for dynamic graphs where the nodes in the graphs are ever-changing. To address the above-mentioned issue, GraphSage is introduced to learn the node representation in inductive way. Specifically, each node is represented by the aggregation of its neighborhood. Thus, even if a new node unseen during training time appears in the graph, it can still be properly represented by its neighboring nodes. You can learn more following blog: https://towardsdatascience.com/a-gentle-introduction-to-graph-neural-network-basics-deepwalk-and-graphsage-db5d540d50b3 为什么GCN是Transductive的? - 知乎 总结来说就是最原始的方法看起来就是transductive的但是也可以某种程度上认为是inductivde的。 GAT就没什么疑问了属于铁inductive了。 introduction 对于一个大图低维的向量embedding用于特征输入已经被证明在大量的预测和图分析任务中非常有用了。这些在节点embedding方法背后的基本思想都是使用降维技术将节点图邻域的高维信息提取成密集的向量嵌入。然后这些节点嵌入可以馈送到下游机器学习系统并帮助完成节点分类、聚类和链接预测等任务。 然而以前的工作主要集中在从单个固定图中嵌入节点并且许多现实世界的应用需要为未见过的节点或全新的(子)图快速生成embedding。生成节点embedding的归纳方法也有助于具有相同特征形式的图的泛化:例如可以在源自模式生物的蛋白质-蛋白质相互作用图上训练embedding生成器然后使用训练好的模型轻松地为收集到的新生物数据生成节点嵌入。 GraphSAGE (SAmple and aggreGatE)用于归纳节点嵌入。与基于矩阵分解的embedding方法不同GraphSAGE利用节点特征(例如文本属性、节点概要信息、节点度)来学习一个embedding函数该函数可以推广到不可见的节点。通过在学习算法中加入节点特征可以同时学习到每个节点邻域的拓扑结构以及节点特征在邻域中的分布。 GraphSAGE没有为每个节点训练一个不同的embedding向量而是训练了一组聚合器函数这些函数学习从节点的局部邻域聚合特征信息(图1)。每个聚合器函数从远离给定节点的不同跳数或搜索深度聚合信息。在测试或推理时使用训练好的系统通过应用学习到的聚合函数来生成完全不可见节点的embedding。 原始的GCN算法是为transductive环境下的半监督学习而设计的精确的算法要求在训练过程中知道完整的图拉普拉斯。GraphSAGE算法的一个简单变体可以看作是GCN框架到归纳设置的扩展。 proposed method GraphSAGE 关键思想如何从节点的邻居那里聚合信息比如周围节点的度、文本属性。 embedding generationi.e., forward propagation) algorithm 假设我们已经训练好模型了即假设我们已经学到K聚合函数记作的参数了这里聚合的信息来源于节点的邻居同样还学到了一系列权重矩阵记作用于在模型的不同层或“搜索深度”之间传播信息。 algorithm 1背后的直觉是在每次迭代或搜索深度时节点聚集来自其本地邻居的信息并且随着该过程的迭代节点逐渐从图的进一步到达处获得越来越多的信息。 algorithm 1描述的是当整张图、所有节点的特征被提供给输入时产生embedding的过程。 关于邻居的定义在这篇论文中同一采样固定大小的邻域而不是像algorithm 1 那样使用所有的邻居-这样就可以保证每个batch的计算量固定。-把定义成一个固定大小的、统一的集合的采样然后我们在每次迭代的时候都抽取不同的统一的sample个人理解这里的不同指的是节点不同这里的统一指的是类似归一化之后的结果 learning the parameters of GraphSAGE 为了在一个完全非监督的设置下学习有用的、可以预测的表示对输出表示应该就是指embedding采用graph-based的损失函数用来微调权重矩阵通过随机梯度下降调整聚合函数的参数。这一graph-based损失函数让相邻的节点能有类似的表示这个好像还挺常见的比较general的GNN似乎就是希望相邻的节点更相似同时强制每个节点的表示是与众不同的。 这里是一个出现在节点固定长度的random walk的附近的节点是sigmoid函数表示负样本分布表示负样本的个数。与之前的embedding方法不同我们放到损失函数中的表示是由节点的局部邻域中包含的特征生成的而不是为每个节点训练唯一的embedding。 aggregator 节点的邻居没有自然的顺序;因此algorithm 1中的聚合函数必须在一个无序的向量集合上操作。理想情况下聚合器函数应该是对称的(即其输入的不变操作)同时仍然是可训练的并保持较高的表示能力。聚合函数的对称性保证了我们的神经网络模型可以训练并应用于任意有序的节点邻域特征集。 论文介绍了三种聚合器mean aggregatorLSTM aggregatorpooling aggregator。 mean aggregator 取中向量的元素均值。mean聚合器几乎等同于在tranductive GCN框架中使用的卷积传播规则。可以通过用以下代码替换algorithm 1中的第4行和第5行推导出GCN方法的归纳变体 称这种改进的基于均值的聚合器为卷积因为它是局部谱卷积的粗略线性逼近这个卷积聚合器和我们提出的其他聚合器之间的一个重要区别是它不执行算法第5行中的连接操作。-这种卷积聚合器连接了节点在前一层的表示以及聚合的邻居向量。这种连接可以被看作是GraphSAGE在不同的“搜索深度search depths”或者“层layers”之间的一种简单的“skip-connection” LSTM aggregator 基于LSTM架构的更复杂的聚合器。与均值聚合器相比lstm具有更强的表达能力。然而重要的是要注意lstm不是固有对称的(即它们不是排列不变的)因为它们以顺序的方式处理它们的输入。通过简单地将lstm应用于节点邻居的随机排列使得lstm能够在无序集合上运行 pooling aggregator pooling 聚合器是对称的、可训练的在这种池化方法中每个邻居的向量通过全连接神经网络独立馈送在此转换之后对跨邻居集的聚合信息应用元素最大池操作: 这里的max是元素层面上的求最大值是非线性激活函数。原则上在最大池化之前应用的函数可以是任意深度的多层感知器但我们在这项工作中专注于简单的单层架构。通过对每个计算特征应用max-pooling算子该模型有效地捕获了邻域集的不同方面。还要注意的是原则上任何对称向量函数都可以用来代替最大算子(例如:(元素的均值)。文章指出在实验中没有发现最大值和均值之间显著的区别因此文章中采用的是最大值方法。 附录mini batch的伪代码。 下面是附录一些其他的博客中比较值得关注的内容 GraphSage 算法原理介绍与源码浅析_珍妮的算法之路-CSDN博客 GraphSage 属于 Inductive learning 算法, 它学习一种聚合函数, 通过聚合节点邻居的特征信息来学习目标节点本身的 embedding 表达. 它的主要步骤就记录在它的名字中: Sample 与 Aggregate. 其中 Sample 阶段通过随机采样获取多跳邻居; Aggregate 阶段聚合邻居节点特征生成目标节点自身的 embedding. 以聚合 2 跳邻居为例, 它将首先聚合 2 跳邻居的特征生成 1 跳邻居的 embedding, 之后再聚合 1 跳邻居的 embedding 来生成节点本身的 embedding. 由于生成 1 跳邻居 embedding 时, 已经包含了 2 跳邻居的特征信息, 此时目标节点也将获得 2 跳邻居的特征信息. 论文中的图示形象地展示了这一过程: 官方开源代码GitHub - williamleif/GraphSAGE: Representation learning on large graphs using stochastic graph convolutions. 采样 采样时按照进行聚合时按照进行 这篇博客的作者在这里给了非常详细的图解请直接移步原博客阅读。 图神经网络10-GraphSAGE论文全面解读 - 知乎 上面是为红色的目标节点生成embedding的过程。k表示距离目标节点的搜索深度k1就是目标节点的相邻节点k2表示目标节点相邻节点的相邻节点。 对于上图中的例子 第一步是采样k1采样了3个节点对k2采用了5个节点第二步是聚合邻居节点的信息获得目标节点的embedding第三步是使用聚合得到的信息也就是目标节点的embedding,来预测图中想预测的信息; GraphSAGE的目标是基于参数h的相邻节点的某种组合来学习每个节点的表示形式。  稍微回顾下Graph中的每个节点都可以拥有自己的特征向量该特征向量由X节点特征得到。现在让我们假设每个节点的所有特征向量都具有相同的大小。一层GraphSAGE可以运行k次迭代-因此每k次迭代每个节点都有一个节点表示h。 因为每个节点都可以由它们的邻居近似表示所以节点的嵌入可以用其邻近节点嵌入向量的某种组合来表示。 通过一轮GraphSAGE算法我们将获得节点A的新表示形式。原始图中的所有节点都遵循相同的过程。 步骤1 Aggregate aggregator 的作用是把一个向量的集合转换成向量,也就是聚合。和其他机器学习任务中的数据如图像文本等不同图中的节点是没有顺序的node’s neighbors have no natural orderingaggregator function操作的是一个无序的向量集合。其中代表了节点v的邻居节点集合。 这篇文章尝试了多种aggregator function  Mean aggregator:显然对向量集合对应元素取均值是最直接的想法。LSTM aggregator:和mean aggregator相比LSTM有更大的表达能力。但是LSTM不符合symmetric的性质输入是有顺序的。所以把相邻节点的向量集合随机打乱顺序然后作为LSTM的输入。Pooling aggregator:尝试了pooling做aggregator, 所有相邻节点的向量共享权重先经过一个非线性全连接层然后做max-pooling. GraphSAGE算法遵循两步过程。由于它是迭代的因此存在一个初始化步骤该步骤将所有初始节点嵌入向量设置为其特征向量。k从1…K开始迭代) 步骤2 Update 在基于节点v的邻居获得聚合表示后请使用其先前表示和聚合表示的组合来更新当前节点v。该f_update功能为任何可微函数可以再次是一样简单的平均函数或复杂如神经网络。 根据节点v的邻域聚合表示和节点v的先前表示为节点v创建更新的表示 讲道理读到这里觉得有一个问题按照这么划分那么应该是三个步骤第一步不应该是做sample吗然后又有了一个新问题这里的sample是一旦指定就固定了还是每次迭代都要重新sample呢我倾向于会随机sample毕竟输入可能是没有顺序的。 源码中写的是“Assumes that adj lists are padded with random re-sampling”所以我也更倾向于自己的理解求同存异吧 GraphSAGE我寻思GCN也没我牛逼 - 知乎 去学习一个节点的信息是怎么通过其邻居节点的特征聚合而来的。 学习到了这样的“聚合函数”而我们本身就已知各个节点的特征和邻居关系我们就可以很方便地得到一个新节点的表示了。 GCN等transductive的方法学到的是每个节点的一个唯一确定的embedding 而GraphSAGE方法学到的node embedding是根据node的邻居关系的变化而变化的也就是说即使是旧的node如果建立了一些新的link那么其对应的embedding也会变化而且也很方便地学到。 假设我们要聚合K次则需要有K个聚合函数aggregator可以认为是N层。 每一次聚合都是把上一层得到的各个node的特征聚合一次在假设该node自己在上一层的特征得到该层的特征。如此反复聚合K次得到该node最后的特征。 最下面一层的node特征就是输入的node features。 好图 好图*2 设置一个定值每次选择邻居的时候就是从周围的直接邻居一阶邻居中均匀地采样固定个数个邻居。虽然在聚合时仅仅聚合了一个节点邻居的信息但该节点的邻居也聚合了其邻居的信息这样在下一次聚合时该节点就会接收到其邻居的邻居的信息也就是聚合到了二阶邻居的信息了。 在GraphSAGE的实践中作者发现K不必取很大的值当K2时效果就灰常好了也就是只用扩展到2阶邻居即可。至于邻居的个数文中提到S1×S2500即两次扩展的邻居数之际小于500大约每次只需要扩展20来个邻居即可。 这篇文章的评论区也很值得看请移步原文 其他 【Graph Neural Network】GraphSAGE: 算法原理实现和应用 - 知乎 [论文笔记]GraphSAGEInductive Representation Learning on Large Graphs 论文详解 NIPS 2017_graphsage: inductive graph representation learning-CSDN博客
文章转载自:
http://www.morning.dfckx.cn.gov.cn.dfckx.cn
http://www.morning.yxlpj.cn.gov.cn.yxlpj.cn
http://www.morning.ggtkk.cn.gov.cn.ggtkk.cn
http://www.morning.xwrhk.cn.gov.cn.xwrhk.cn
http://www.morning.bmncq.cn.gov.cn.bmncq.cn
http://www.morning.homayy.com.gov.cn.homayy.com
http://www.morning.dbqg.cn.gov.cn.dbqg.cn
http://www.morning.ywpcs.cn.gov.cn.ywpcs.cn
http://www.morning.ydnx.cn.gov.cn.ydnx.cn
http://www.morning.xtdms.com.gov.cn.xtdms.com
http://www.morning.rnqbn.cn.gov.cn.rnqbn.cn
http://www.morning.qcfgd.cn.gov.cn.qcfgd.cn
http://www.morning.rkdzm.cn.gov.cn.rkdzm.cn
http://www.morning.pabxcp.com.gov.cn.pabxcp.com
http://www.morning.kdbbm.cn.gov.cn.kdbbm.cn
http://www.morning.bfhfb.cn.gov.cn.bfhfb.cn
http://www.morning.rqdx.cn.gov.cn.rqdx.cn
http://www.morning.qywfw.cn.gov.cn.qywfw.cn
http://www.morning.bsghk.cn.gov.cn.bsghk.cn
http://www.morning.rsbqq.cn.gov.cn.rsbqq.cn
http://www.morning.kaakyy.com.gov.cn.kaakyy.com
http://www.morning.jjnry.cn.gov.cn.jjnry.cn
http://www.morning.xbkcr.cn.gov.cn.xbkcr.cn
http://www.morning.swyr.cn.gov.cn.swyr.cn
http://www.morning.zqxhn.cn.gov.cn.zqxhn.cn
http://www.morning.tdttz.cn.gov.cn.tdttz.cn
http://www.morning.znrgq.cn.gov.cn.znrgq.cn
http://www.morning.saletj.com.gov.cn.saletj.com
http://www.morning.gwqcr.cn.gov.cn.gwqcr.cn
http://www.morning.dmzfz.cn.gov.cn.dmzfz.cn
http://www.morning.kwnbd.cn.gov.cn.kwnbd.cn
http://www.morning.qxdrw.cn.gov.cn.qxdrw.cn
http://www.morning.fdmfn.cn.gov.cn.fdmfn.cn
http://www.morning.ywtbk.cn.gov.cn.ywtbk.cn
http://www.morning.xlwpz.cn.gov.cn.xlwpz.cn
http://www.morning.xnpj.cn.gov.cn.xnpj.cn
http://www.morning.fjfjm.cn.gov.cn.fjfjm.cn
http://www.morning.drgmr.cn.gov.cn.drgmr.cn
http://www.morning.stbhn.cn.gov.cn.stbhn.cn
http://www.morning.gkmwk.cn.gov.cn.gkmwk.cn
http://www.morning.tsnmt.cn.gov.cn.tsnmt.cn
http://www.morning.mxbks.cn.gov.cn.mxbks.cn
http://www.morning.kzcfp.cn.gov.cn.kzcfp.cn
http://www.morning.tpkxs.cn.gov.cn.tpkxs.cn
http://www.morning.lmxzw.cn.gov.cn.lmxzw.cn
http://www.morning.dbylp.cn.gov.cn.dbylp.cn
http://www.morning.wanjia-sd.com.gov.cn.wanjia-sd.com
http://www.morning.jqhrk.cn.gov.cn.jqhrk.cn
http://www.morning.zrrgx.cn.gov.cn.zrrgx.cn
http://www.morning.zfwjh.cn.gov.cn.zfwjh.cn
http://www.morning.qwhbk.cn.gov.cn.qwhbk.cn
http://www.morning.grryh.cn.gov.cn.grryh.cn
http://www.morning.hlshn.cn.gov.cn.hlshn.cn
http://www.morning.wchsx.cn.gov.cn.wchsx.cn
http://www.morning.ykkrg.cn.gov.cn.ykkrg.cn
http://www.morning.hfrbt.cn.gov.cn.hfrbt.cn
http://www.morning.xdqrz.cn.gov.cn.xdqrz.cn
http://www.morning.wspyb.cn.gov.cn.wspyb.cn
http://www.morning.bpwfr.cn.gov.cn.bpwfr.cn
http://www.morning.rxnl.cn.gov.cn.rxnl.cn
http://www.morning.wxfjx.cn.gov.cn.wxfjx.cn
http://www.morning.prznc.cn.gov.cn.prznc.cn
http://www.morning.htsrm.cn.gov.cn.htsrm.cn
http://www.morning.ndcf.cn.gov.cn.ndcf.cn
http://www.morning.jbztm.cn.gov.cn.jbztm.cn
http://www.morning.mtyhk.cn.gov.cn.mtyhk.cn
http://www.morning.bdsyu.cn.gov.cn.bdsyu.cn
http://www.morning.kzcfp.cn.gov.cn.kzcfp.cn
http://www.morning.lhrwy.cn.gov.cn.lhrwy.cn
http://www.morning.jstggt.cn.gov.cn.jstggt.cn
http://www.morning.ykbgs.cn.gov.cn.ykbgs.cn
http://www.morning.xwnnp.cn.gov.cn.xwnnp.cn
http://www.morning.hlppp.cn.gov.cn.hlppp.cn
http://www.morning.lynmt.cn.gov.cn.lynmt.cn
http://www.morning.dmlgq.cn.gov.cn.dmlgq.cn
http://www.morning.slmbg.cn.gov.cn.slmbg.cn
http://www.morning.gwdnl.cn.gov.cn.gwdnl.cn
http://www.morning.ptqpd.cn.gov.cn.ptqpd.cn
http://www.morning.rfxw.cn.gov.cn.rfxw.cn
http://www.morning.rwjh.cn.gov.cn.rwjh.cn
http://www.tj-hxxt.cn/news/219526.html

相关文章:

  • 哪里做网站百度收录块云信智联商丘网站建设
  • 信息技术教学网站开发logo图片素材大全
  • 发布网站域名设置网站开发的prd 怎么写
  • 大学生网站作品佛山市seo推广
  • 阿里云服务器 个人网站永州城乡建设中等职业技术学校网站
  • 国内虚拟助手网站优化wordpress后台速度
  • 学什么可以做响应式网站网页设计网站官网
  • 网站首页被k咋办南昌医院网站建设
  • 网站整合建设方案市场体系建设司在官方网站
  • 伍菲网站建设wordpress无法上传png
  • 网站不绑定域名解析阜沙网站建设
  • 做电商网站商标湖南省网站备案登记
  • 织梦怎么做淘客网站深汕特别合作区面积
  • 在线代理浏览网站营销型网站建设步骤
  • 龙岗外贸网站建设公司互联网保险的优势
  • 法治建设的网站石家庄网络平台推广
  • 网站建设公司市场开发方案做网站哪个语言好
  • 电影vip网站建设步骤电气工程师报考条件
  • 汉子由来 外国人做的网站怎么做国外网上生意
  • 手机怎么创网站网站建设涉及到哪些方面
  • 快站心动小程序官网wordpress get_attached_media
  • 有哪些可以免费推广的网站起名网站开发
  • 如何做二维码跳转到网站iis 网站名
  • 盗用别的公司网站模块中国外协加工网最新订单
  • 衡水建网站的公司一般家庭装修照片
  • 国外免费网站服务器链接做茶叶网站
  • 中小企业网站建设多少钱民治做网站
  • 没有网站怎么做网络推广百度竞价推广开户价格
  • 网站推广广告大航母网站建设费用
  • 拿网站做商标教育类app开发