当前位置: 首页 > news >正文

php如何搭建网站后台湖南省做网站的

php如何搭建网站后台,湖南省做网站的,如何做网页推广如何做网页,赣州网站建设全文链接#xff1a;https://tecdat.cn/?p38617 本文聚焦于图注意力网络GAT在蛋白质 - 蛋白质相互作用数据集中的应用。首先介绍了研究背景与目的#xff0c;阐述了相关概念如归纳设置与转导设置的差异。接着详细描述了数据加载与可视化的过程#xff0c;包括代码实现与分析… 全文链接https://tecdat.cn/?p38617  本文聚焦于图注意力网络GAT在蛋白质 - 蛋白质相互作用数据集中的应用。首先介绍了研究背景与目的阐述了相关概念如归纳设置与转导设置的差异。接着详细描述了数据加载与可视化的过程包括代码实现与分析如数据集的读取、处理以及图数据加载器的构建等。通过对数据形状和类型的分析深入理解数据特性。最后强调了在项目开发过程中测试代码以及可视化的重要性为 GAT 在 数据集上的进一步研究与应用奠定基础点击文末“阅读原文”获取完整代码数据。 一、引言 本研究围绕图注意力网络GAT展开重点探讨其在蛋白质相互作用数据集中的应用。GAT 作为一种强大的图神经网络模型在处理具有复杂结构的数据时展现出独特的优势。本文本旨在解释如何在归纳设置下使用 GAT并以 数据集为例进行深入研究。通过对 蛋白质 数据集的分析与处理期望能够为生物信息学等领域的研究提供有力的技术支持与理论依据。 二、相关概念 一归纳设置与转导设置 在图神经网络中归纳设置和转导设置是两种不同的数据处理方式。转导设置通常针对单个图例如 Cora 数据集将图中的一些节点而非图本身划分为训练、验证和测试集。在训练过程中仅使用训练节点的标签信息但在正向传播时由于空间 GNN 的工作原理会聚合邻居节点的特征向量其中部分邻居节点可能属于验证集甚至测试集。这里主要利用了邻居节点的结构信息和特征而非其标签信息。 而归纳设置则更类似于计算机视觉或自然语言处理中的常见方式。在这种设置下拥有一组训练图、一组独立的验证图和一组独立的测试图。这种设置使得模型能够在不同的图数据上进行训练和评估具有更强的泛化能力。 三、数据加载与可视化 一数据加载 在数据加载部分首先定义了一些必要的函数和类。例如json_read 函数用于读取 JSON 格式的数据 def json_read(path):with open(path, r) as file:data  json.load(file)return data 该函数接受一个文件路径作为参数打开文件并读取其中的 JSON 数据最后返回读取的数据。load_graph_data 函数则用于加载 蛋白质 数据集的图数据 if dataset_name  DatasetType.蛋白质.name.lower(): # 蛋白质 - 蛋白质相互作用数据集# 若 蛋白质 数据路径不存在则首次使用时下载if not os.path.exists(蛋白质_PATH):  os.makedirs(蛋白质_PATH)# 步骤 1下载 蛋白质.zip包含 蛋白质 数据集zip\\\\\\_tmp\\\\\\_path  os.path.join(蛋白质_PATH, 蛋白质.zip)download\\\\\\_url\\\\\\_to\\\\\\_file(蛋白质\\\\\\_URL, zip\\\\\\_tmp\\\\\\_path)# 步骤 2解压with zipfile.ZipFile(zip\\\\\\_tmp\\\\\\_path) as zf:zf.extractall(path蛋白质_PATH)print(f解压至: {蛋白质_PATH} 完成。)# 步骤 3删除临时资源文件 该函数根据配置信息加载 蛋白质 数据集包括下载数据若不存在、读取节点特征、标签和图拓扑结构等并将数据整理为适合训练的格式最后返回相应的数据加载器。 GraphD 类用于从分割中获取单个图数据 class GraphDt(Dataset):def \\\_\\\\\\_init\\\\\\_\\\_(self, node\\\\\\_features\\\\\\_list, node\\\\\\_labels\\\\\\_list, edge\\\\\\_index\\\\\\_list):self.node\\\\\\_features\\\\\\_list  node\\\\\\_features\\\\\\_listself.node\\\\\\_labels\\\\\\_list  node\\\\\\_labels\\\\\\_listself.edge\\\\\\_index\\\\\\_list  edge\\\\\\_index\\\\\\_list# 需定义 len 和 getitem 函数以便 DataLoader 正常工作def \\\_\\\\\\_len\\\\\\_\\\_(self):return len(self.edge\\\\\\_index\\\\\\_list) 二数据可视化 为了可视化数据 if should_visualize:plot\\\\\\_in\\\\\\_out\\\\\\_degree\\\\\\_distributions(edge\\\\\\_index.numpy(), graph.number\\\\\\_of\\\\\\_nodes(), dataset\\\\\\_name)visualize\\\\\\_graph(edge\\\\\\_index.numpy(), node\\\\\\_labels\\\\\\[mask\\\\\\], dataset\\\\\\_name) 四、数据形状与类型分析 通过加载数据并获取一批训练数据对数据的形状和类型进行了分析。以特定的 蛋白质 训练图批次大小为 1为例其具有 3021 个节点每个节点有 50 个特征这与 蛋白质 数据集的特性相关每个节点的特征是多种基因集信息的组合。蛋白质 数据集共有 121 个类别且每个节点可以关联多个类别属于多标签分类数据集。该图包含 94359 条边包括自环与 Cora 数据集的 13k 条边相比数量较多。此外边索引的数据类型为 int64这是由于 PyTorch 中 index_select 函数的要求而节点标签可以使用 float32 类型因为 nn.BCEWithLogitsLoss 不需要 long/int64 类型这样可以节省内存。 基于蛋白质相互作用网络的数据可视化与图注意力网络GAT模型研究 接下来聚焦于蛋白质相互作用网络深入探讨其数据可视化与图注意力网络GAT模型的应用。通过详细分析节点度分布、构建并训练 GAT 模型以及对模型进行可视化分析揭示了 蛋白质 网络的结构特征与 GAT 模型在多标签分类任务中的有效性为相关领域的研究提供了有价值的参考。 一、引言 在生物信息学领域蛋白质相互作用网络的研究具有至关重要的意义。理解 蛋白质 网络的结构和特性有助于深入探究蛋白质的功能以及生物体内的复杂生理过程。本文旨在通过数据可视化和构建图注意力网络GAT模型对 蛋白质 网络进行全面的分析与研究为相关领域的进一步探索奠定基础。 二、蛋白质 数据可视化 一节点度分布可视化 为了初步了解 蛋白质 网络中节点的连接情况我们首先研究节点的度分布即节点拥有的输入/输出边的数量这是衡量图连通性的一个重要指标。 运行以下代码以可视化 蛋白质 的度分布 num\\\\\\_of\\\\\\_nodes  len(node_labels) plot\\\\\\_in\\\\\\_out\\\\\\_degree\\\\\\_distributions(edge\\\\\\_index, num\\\\\\_of\\\\\\_nodes, config\\\\\\[dataset\\\\\\_name\\\\\\]) 二蛋白质 图可视化 接下来我们将可视化 蛋白质 图。以下代码用于构建和绘制 蛋白质 图 dataset\\\\\\_name  config\\\\\\[dataset\\\\\\_name\\\\\\] visualization_tool  GraphVisualizationTool.IGRAPH # 如果 edge_index 是 torch.Tensor 类型则将其转换为 numpy 数组 if isinstance(edge_index, torch.Tensor):edge\\\\\\_index\\\\\\_np  edge_index.cpu().numpy() # 如果 node_labels 是 torch.Tensor 类型则将其转换为 numpy 数组 if isinstance(node_labels, torch.Tensor): 从可视化结果可以得出以下结论 由于我们将 蛋白质 视为无向图因此前两个图相同。与 Cora 相比更多的节点具有大量的边但大多数节点的边数仍然较少。第三个图以直方图的形式清晰地展示了这一点大多数节点只有 1 - 20 条边因此在最左侧有峰值并且与 Cora 相比分布更为分散。 需要注意的是我不得不清除此单元格的原始输出否则文件会非常大。这里仅展示了一个任意的 蛋白质 训练图示例结果可能会有所不同共有 20 个训练图。 点击标题查阅往期内容 MATLAB图注意力网络GAT多标签图分类预测可视化 左右滑动查看更多 01 02 03 04 GAT 模型理解 GAT 模型类定义 首先创建一个高级类用于构建 GAT 模型。该类主要将各层堆叠到对象中并将数据特征、边索引打包成元组。 class GAT(torch.nn.Module):最有趣且最具挑战性的实现是实现 #3。Imp1 和 imp2 在细节上有所不同但基本相同。def \\\_\\\\\\_init\\\\\\_\\\_(self, num\\\\\\_of\\\\\\_layers, num\\\\\\_heads\\\\\\_per\\\\\_layer, num\\\\ GAT 层定义 接下来定义 GATLayer 类该类是 GAT 模型的核心组成部分。 # 源节点在边索引中的维度位置src\\\\\\_nodes\\\\\\_dim  0# 目标节点在边索引中的维度位置trg\\\\\\_nodes\\\\\\_dim  1# 节点维度在张量中 N 的位置axis 可能是更熟悉的术语nodes_dim  0# 注意力头维度head_dim  1def \\\_\\\\\\_init\\\\\\_\\\_(self, num\\\\\\_in\\\\\\_features, num\\\\\\_out\\\\\\_features, num\\\\\\_of\\\\\\_heads, concatTrue, activationnn.ELU(),dropout\\\\\\_prob0.6, add\\\\\\_skip\\\\\\_connectionTrue, biasTrue, log\\\\\\_attention_weightsFalse):super().\\\_\\\\\\_init\\\\\\_\\\_()self.num\\\\\\_of\\\\\\_heads  num\\\\\\_of\\\\\\_heads 训练 GAT 模型蛋白质 多标签分类 相关常量定义 首先定义一些训练相关的常量包括训练阶段枚举、日志记录器、早停相关变量以及模型保存路径等。 from torch.utils.tensorboard import SummaryWriter # 3 种不同的模型训练/评估阶段用于 train.py class LoopPhase(enum.Enum):TRAIN  0, 基于图注意力网络GAT的模型训练与可视化分析 接下来我们详细阐述了图注意力网络GAT在特定数据集如 蛋白质上的训练过程及相关可视化分析。通过定义一系列实用函数来构建训练模型所需的组件包括数据加载、模型架构定义、训练循环设置等并对训练得到的模型进行注意力和熵可视化以深入理解 GAT 模型的学习效果与特性。 一、引言 图注意力网络GAT在处理图结构数据方面具有重要意义。在本文中我们将深入探讨其在 蛋白质 数据集上的应用涵盖从模型训练到可视化分析的完整流程旨在揭示 GAT 模型在该数据集上的表现及内在机制。 二、模型训练相关函数定义 一获取训练状态函数 import git import re # 正则表达式模块 def get\\\\\\_training\\\\\\_state(training_config, model):training_state  {# 获取代码仓库的提交哈希值commit\\\\\\_hash: git.Repo(search\\\\\\_parent_directoriesTrue).head.object.hexsha, 该函数用于收集训练过程中的重要信息包括代码版本信息通过提交哈希值体现、训练数据集名称、训练轮数、测试性能指标以及模型的结构和参数状态等。这些信息对于后续的模型分析、比较和复现具有重要价值。 二打印模型元数据函数 def print\\\\\\_model\\\\\\_metadata(training_state):# 构建打印头部信息header  f\\\\\n{*\\\\\\*5} Model training metadata: {\\\\\\**5}print(header)for key, value in training_state.items():# 不打印模型参数字典因为其内容为大量数字if key! state_dict:  print(f{key}: {value})print(f{* * len(header)}\\\\\n) 此函数用于以清晰的格式打印模型训练的元数据除了模型参数字典外将其他关键信息如数据集名称、训练轮数等展示出来方便用户快速了解模型训练的基本情况。 三、命令行参数解析函数 此函数利用 argparse 模块解析命令行参数涵盖训练过程中的各种设置如训练轮数、学习率、是否使用 GPU 等同时也包括数据集相关和日志记录相关的参数。通过合理设置这些参数可以灵活地调整模型训练过程满足不同的实验需求。 四、GAT 模型训练函数 \[force\\\\\_cpu\\\\\\] else cpu)# 步骤 1准备数据加载器data\\\\\\_loader\\\\\\_train, data\\\\\\_loader\\\\\\_val, data\\\\\\_loader\\\\\\_test  load\\\\\\_graph\\\\\\_data(config, device)# 步骤 2准备模型gat  GAT(num\\\\\\_of\\\\\\_layersconfig\\\\\\[num\\\\\\_of\\\\\\_layers\\\\\\],num\\\\\\_heads\\\\\\_per\\\\\\_layerconfig\\\\\\[num\\\\\\_heads\\\\\\_per\\\\\\_layer\\\\\\],num\\\\\\_features\\\\\\_per\\\\\\_layerconfig\\\\\\[num\\\\\\_features\\\\\\_per\\\\\\_layer\\\\\\], 该函数是 GAT 模型在 蛋白质 数据集上的训练主函数按照特定的步骤进行操作。首先根据设备情况GPU 或 CPU准备数据加载器然后构建 GAT 模型并定义损失函数和优化器接着通过装饰器函数简化训练和验证循环最后在训练过程中进行训练循环、验证循环并根据需要进行测试最终将训练得到的模型状态保存下来。 图注意力网络GAT的熵直方图可视化分析 摘要 接下来聚焦于图注意力网络GAT中熵直方图的可视化研究。阐述了熵概念在 GAT 模型分析中的引入缘由详细介绍了相关函数的构建与作用包括绘制熵直方图函数以及整体可视化函数。通过在 蛋白质 数据集上的应用与结果展示深入探讨了 GAT 模型学习到的注意力模式与均匀注意力模式的差异为理解 GAT 模型的学习效果提供了重要视角。 熵直方图可视化原理 在 GAT 模型的研究中熵直方图可视化是一种重要的分析手段。当提及“熵”时人们可能会疑惑它在此处的作用。事实上这并不复杂。在 GAT 模型中注意力系数总和为 1这就形成了一种概率分布。而有概率分布就可以计算熵熵能够量化分布中的信息量对于专业人士而言它是自信息的期望值。若对熵的概念不熟悉可参考精彩视频不过在理解本研究的可视化目的时并不需要深入掌握熵的理论。其核心思想如下假设有一个“假设性的”GAT 模型它对每个节点的邻域具有恒定的注意力即所有分布是均匀的我们计算每个邻域的熵并根据这些熵值绘制直方图。然后将其与我们训练得到的 GAT 模型的直方图进行比较观察两者的差异。如果两个直方图完全重叠意味着我们的 GAT 模型具有均匀的注意力模式重叠越小则分布越不均匀。在此我们关注的并非信息本身而是直方图的匹配程度。这有助于清晰地了解 GAT 模型学习到的注意力模式是否有意义。若 GAT 学习到的是恒定注意力那么使用 GCN 或更简单的模型可能就足够了。 实验运行与结果分析 最后运行 函数 visualize\\\\\\_entropy\\\\\\_histograms(model_name,dataset_name, ) 得到的结果如以下图片所示从结果可以看出浅蓝色直方图训练后的 GAT与橙色直方图均匀注意力 GAT相比发生了倾斜。并且由于均匀分布具有最高的熵所以它们向左倾斜这是符合预期的。如果之前通过边厚度绘制的可视化结果未能使您信服那么熵直方图的结果将更具说服力。通过熵直方图可视化我们能够更深入地理解 GAT 模型在 蛋白质 数据集上学习到的注意力模式与均匀注意力模式的差异从而评估 GAT 模型的有效性和独特性为进一步优化和应用 GAT 模型提供有力的依据。 本文中分析的数据、代码分享到会员群扫描下面二维码即可加群  资料获取 在公众号后台回复“领资料”可免费获取数据分析、机器学习、深度学习等学习资料。 点击文末“阅读原文” 获取全文完整代码数据资料。 本文选自《Python图注意力神经网络GAT与蛋白质相互作用数据模型构建、可视化及熵直方图分析》。 点击标题查阅往期内容 【视频讲解】Python深度神经网络DNNs-K-MeansK-均值聚类方法在MNIST等数据可视化对比分析 MATLAB用CNN-LSTM神经网络的语音情感分类深度学习研究 Python用CEEMDAN-LSTM-VMD金融股价数据预测及SVR、AR、HAR对比可视化 Python注意力机制Attention下CNN-LSTM-ARIMA混合模型预测中国银行股票价格|附数据代码 R语言KERAS用RNN、双向RNNS递归神经网络、LSTM分析预测温度时间序列、 IMDB电影评分情感 Python用CNN-LSTM、ARIMA、Prophet股票价格预测的研究与分析|附数据代码 【视频讲解】线性时间序列原理及混合ARIMA-LSTM神经网络模型预测股票收盘价研究实例 RNN循环神经网络 、LSTM长短期记忆网络实现时间序列长期利率预测 结合新冠疫情COVID-19股票价格预测ARIMAKNN和神经网络时间序列分析 深度学习Keras使用神经网络进行简单文本分类分析新闻组数据 用PyTorch机器学习神经网络分类预测银行客户流失模型 PYTHON用LSTM长短期记忆神经网络的参数优化方法预测时间序列洗发水销售数据 Python用Keras神经网络序列模型回归拟合预测、准确度检查和结果可视化 R语言深度学习卷积神经网络 (CNN)对 CIFAR 图像进行分类训练与结果评估可视化 深度学习Keras使用神经网络进行简单文本分类分析新闻组数据 Python用LSTM长短期记忆神经网络对不稳定降雨量时间序列进行预测分析 R语言深度学习Keras循环神经网络(RNN)模型预测多输出变量时间序列 R语言KERAS用RNN、双向RNNS递归神经网络、LSTM分析预测温度时间序列、 IMDB电影评分情感 Python用Keras神经网络序列模型回归拟合预测、准确度检查和结果可视化 Python用LSTM长短期记忆神经网络对不稳定降雨量时间序列进行预测分析 R语言中的神经网络预测时间序列多层感知器MLP和极限学习机ELM数据分析报告 R语言深度学习用keras神经网络回归模型预测时间序列数据 Matlab用深度学习长短期记忆LSTM神经网络对文本数据进行分类 R语言KERAS深度学习CNN卷积神经网络分类识别手写数字图像数据MNIST MATLAB中用BP神经网络预测人体脂肪百分比数据 Python中用PyTorch机器学习神经网络分类预测银行客户流失模型 R语言实现CNN卷积神经网络模型进行回归数据分析 SAS使用鸢尾花(iris)数据集训练人工神经网络(ANN)模型 【视频】R语言实现CNN卷积神经网络模型进行回归数据分析 Python使用神经网络进行简单文本分类 R语言用神经网络改进Nelson-Siegel模型拟合收益率曲线分析 R语言基于递归神经网络RNN的温度时间序列预测 R语言神经网络模型预测车辆数量时间序列 R语言中的BP神经网络模型分析学生成绩 matlab使用长短期记忆LSTM神经网络对序列数据进行分类 R语言实现拟合神经网络预测和结果可视化 用R语言实现神经网络预测股票实例 使用PYTHON中KERAS的LSTM递归神经网络进行时间序列预测 python用于NLP的seq2seq模型实例:用Keras实现神经网络机器翻译 用于NLP的Python使用Keras的多标签文本LSTM神经网络分类
文章转载自:
http://www.morning.qnywy.cn.gov.cn.qnywy.cn
http://www.morning.ltspm.cn.gov.cn.ltspm.cn
http://www.morning.fcftj.cn.gov.cn.fcftj.cn
http://www.morning.pwmm.cn.gov.cn.pwmm.cn
http://www.morning.hrgxk.cn.gov.cn.hrgxk.cn
http://www.morning.rknhd.cn.gov.cn.rknhd.cn
http://www.morning.qbkw.cn.gov.cn.qbkw.cn
http://www.morning.mfsxd.cn.gov.cn.mfsxd.cn
http://www.morning.bpmtr.cn.gov.cn.bpmtr.cn
http://www.morning.psxcr.cn.gov.cn.psxcr.cn
http://www.morning.kxwsn.cn.gov.cn.kxwsn.cn
http://www.morning.dqpd.cn.gov.cn.dqpd.cn
http://www.morning.fktlg.cn.gov.cn.fktlg.cn
http://www.morning.qbwyd.cn.gov.cn.qbwyd.cn
http://www.morning.c7497.cn.gov.cn.c7497.cn
http://www.morning.ryqsq.cn.gov.cn.ryqsq.cn
http://www.morning.slfmp.cn.gov.cn.slfmp.cn
http://www.morning.rnwt.cn.gov.cn.rnwt.cn
http://www.morning.rkqzx.cn.gov.cn.rkqzx.cn
http://www.morning.wspyb.cn.gov.cn.wspyb.cn
http://www.morning.kxnnh.cn.gov.cn.kxnnh.cn
http://www.morning.jytrb.cn.gov.cn.jytrb.cn
http://www.morning.mrkbz.cn.gov.cn.mrkbz.cn
http://www.morning.rnrfs.cn.gov.cn.rnrfs.cn
http://www.morning.xtlty.cn.gov.cn.xtlty.cn
http://www.morning.qrsm.cn.gov.cn.qrsm.cn
http://www.morning.qpsft.cn.gov.cn.qpsft.cn
http://www.morning.zsyrk.cn.gov.cn.zsyrk.cn
http://www.morning.rqzyz.cn.gov.cn.rqzyz.cn
http://www.morning.ntqgz.cn.gov.cn.ntqgz.cn
http://www.morning.yrqb.cn.gov.cn.yrqb.cn
http://www.morning.plqsz.cn.gov.cn.plqsz.cn
http://www.morning.cnqdn.cn.gov.cn.cnqdn.cn
http://www.morning.gpxbc.cn.gov.cn.gpxbc.cn
http://www.morning.dhqzc.cn.gov.cn.dhqzc.cn
http://www.morning.qhfdl.cn.gov.cn.qhfdl.cn
http://www.morning.jwtwf.cn.gov.cn.jwtwf.cn
http://www.morning.phjny.cn.gov.cn.phjny.cn
http://www.morning.zqdhr.cn.gov.cn.zqdhr.cn
http://www.morning.qglqb.cn.gov.cn.qglqb.cn
http://www.morning.pngfx.cn.gov.cn.pngfx.cn
http://www.morning.jfbbq.cn.gov.cn.jfbbq.cn
http://www.morning.lbqt.cn.gov.cn.lbqt.cn
http://www.morning.mbnhr.cn.gov.cn.mbnhr.cn
http://www.morning.rymd.cn.gov.cn.rymd.cn
http://www.morning.trhrk.cn.gov.cn.trhrk.cn
http://www.morning.fqtzn.cn.gov.cn.fqtzn.cn
http://www.morning.kwz6232.cn.gov.cn.kwz6232.cn
http://www.morning.zxqyd.cn.gov.cn.zxqyd.cn
http://www.morning.gwmjy.cn.gov.cn.gwmjy.cn
http://www.morning.hkchp.cn.gov.cn.hkchp.cn
http://www.morning.yhywx.cn.gov.cn.yhywx.cn
http://www.morning.qbfkz.cn.gov.cn.qbfkz.cn
http://www.morning.mfsxd.cn.gov.cn.mfsxd.cn
http://www.morning.bwqr.cn.gov.cn.bwqr.cn
http://www.morning.nsrtvu.com.gov.cn.nsrtvu.com
http://www.morning.qfkxj.cn.gov.cn.qfkxj.cn
http://www.morning.c7629.cn.gov.cn.c7629.cn
http://www.morning.fwcnx.cn.gov.cn.fwcnx.cn
http://www.morning.fhlfp.cn.gov.cn.fhlfp.cn
http://www.morning.crdtx.cn.gov.cn.crdtx.cn
http://www.morning.nstml.cn.gov.cn.nstml.cn
http://www.morning.mjytr.cn.gov.cn.mjytr.cn
http://www.morning.qcymf.cn.gov.cn.qcymf.cn
http://www.morning.svrud.cn.gov.cn.svrud.cn
http://www.morning.ttrdr.cn.gov.cn.ttrdr.cn
http://www.morning.rpzqk.cn.gov.cn.rpzqk.cn
http://www.morning.qgzmz.cn.gov.cn.qgzmz.cn
http://www.morning.rhmpk.cn.gov.cn.rhmpk.cn
http://www.morning.bfmrq.cn.gov.cn.bfmrq.cn
http://www.morning.lbbrw.cn.gov.cn.lbbrw.cn
http://www.morning.frpfk.cn.gov.cn.frpfk.cn
http://www.morning.bpmnq.cn.gov.cn.bpmnq.cn
http://www.morning.hxcrd.cn.gov.cn.hxcrd.cn
http://www.morning.xflwq.cn.gov.cn.xflwq.cn
http://www.morning.xnqjs.cn.gov.cn.xnqjs.cn
http://www.morning.qbmpb.cn.gov.cn.qbmpb.cn
http://www.morning.pndhh.cn.gov.cn.pndhh.cn
http://www.morning.snbry.cn.gov.cn.snbry.cn
http://www.morning.hlnrj.cn.gov.cn.hlnrj.cn
http://www.tj-hxxt.cn/news/235139.html

相关文章:

  • 蓬莱做网站那家好电子商务网站策划书布局设计
  • 建设网站 买了域名还要什么优化网站的步骤
  • 漳州网站开发wordpress 只显示某分类
  • 电脑和手机都能浏览的网站开发怎么在网上销售
  • 绍兴网站建设08keji外贸网站设计设计注意事项
  • 多语种外贸网站营口seo
  • 如何用电脑主机做网站上海企业网页制作
  • 企业家网站建设如何做国外假发网站
  • 怎么在子域名建立一个不同的网站媒体广告
  • 在wordpress主题后台安装了多说插件但网站上显示不出评论模块商务网站推广目标有哪些
  • 山西孝义网站开发网站开发实训报告模板
  • 云霄建设局网站网络广告策划流程
  • 环境设计排版素材网站石龙镇网站仿做
  • 网站诊断书网站设计是用什么软件做
  • 中英文双语网站站点网络舆情监测工作
  • 做下载类网站一年赚多少钱中国企业网信息网
  • 网站关键词过多廊坊手机网站建设
  • 怎样做外贸网站wordpress邮件发布出去
  • 简要列举网站常见类型网络正能量你懂我意思的
  • 360免费建站域名制作网制作网站建设的公司
  • 怎么开发个人网站wordpress 主题包
  • 网站右边悬浮代码怎么查看一个网站是不是伪静态
  • 网站服务器搭建教程wordpress企业插件
  • wordpress网站访问量网页前端是什么
  • 网络电话聊天网站建设多少钱口碑营销论文
  • 手机 网站编辑器wordpress 会员分值
  • 开一个网站需要多少钱沧州省建设厅网站
  • 湖北建设厅考试网站想学室内设计在哪里学比较好
  • 织梦网站模板免费下载懂的建设网站
  • 江苏省建设工程竣工备案网站服装官网网站建设