当前位置: 首页 > news >正文

做外贸网站的经验网站建设服务费计什么科目

做外贸网站的经验,网站建设服务费计什么科目,建站网站系统,看剧资源网站怎么做的NL2SQL进阶系列(4)#xff1a;ConvAI、DIN-SQL等16个业界开源应用实践详解[Text2SQL] NL2SQL基础系列(1)#xff1a;业界顶尖排行榜、权威测评数据集及LLM大模型#xff08;Spider vs BIRD#xff09;全面对比优劣分析[Text2SQL、Text2DSL] NL2SQL基础系列(2)#xff1a…NL2SQL进阶系列(4)ConvAI、DIN-SQL等16个业界开源应用实践详解[Text2SQL] NL2SQL基础系列(1)业界顶尖排行榜、权威测评数据集及LLM大模型Spider vs BIRD全面对比优劣分析[Text2SQL、Text2DSL] NL2SQL基础系列(2)主流大模型与微调方法精选集Text2SQL经典算法技术回顾七年发展脉络梳理 NL2SQL进阶系列(1)DB-GPT-Hub、SQLcoder、Text2SQL开源应用实践详解 NL2SQL进阶系列(2)DAIL-SQL、DB-GPT开源应用实践详解[Text2SQL] NL2SQL任务的目标是将用户对某个数据库的自然语言问题转化为相应的SQL查询。随着LLM的发展使用LLM进行NL2SQL已成为一种新的范式。在这一过程中如何利用提示工程来发掘LLM的NL2SQL能力显得尤为重要。 1. MAC-SQL-2024.2.15 简介最近的基于LLM的文本到SQL方法通常在“庞大”数据库和需要多步推理的复杂用户问题上表现出明显的性能下降。此外大多数现有方法忽视了LLM利用外部工具和模型协作的重要意义。为了解决这些挑战提出了一种新颖的基于LLM的多智能体协作框架MAC-SQL。的框架包括一个核心分解器智能体用于生成文本到SQL并进行少量思维链推理并伴随两个辅助智能体它们利用外部工具或模型获取更小子数据库并精炼错误SQL查询。分解器智能体与辅助智能体协作在需要时激活并可扩展以适应新特性或工具实现有效文本到SQL解析。 在的框架中首先使用任务强大骨干LLM来确定框架上限。然后通过利用Code Llama 7B微调开源指令跟随模型SQL-Llama来显示在BIRD基准测试中SQL-Llama达到43.94%执行准则为46.35% 的基线准确率相当接近 。撰写本文时, MAC-SQLGPT-4 在holdout测试集上取得59.59% 的执行准确率, 创造了一个新水平(SOTA)。 文件链接: MAC-SQL: A Multi-Agent Collaborative Framework for Text-to-SQL 代码链接: github: MAC-SQL 2. DBCopiLOT (☆)-2023.12.6 Text-to-SQL简化了数据库交互让非专业人士将自然语言问题转换为SQL查询。尽管大型语言模型(LLMs)的近期进展改善了零样本Text-to-SQL范式但现有方法在处理庞大、动态变化的数据库时仍面临可扩展性挑战。本文介绍了DBCopilot框架它采用紧凑灵活的协同模型实现跨大规模数据库的路由解决了这些挑战。DBCopilot将Text-to-SQL过程解耦为模式路由和SQL生成利用轻量级的基于序列到序列神经网络的路由器来制定数据库连接并通过数据库和表导航自然语言问题。随后将路由的模式和问题输入LLMs进行高效的SQL生成。此外DBCopilot还引入了反向模式到问题生成范式可以自动学习和适应大规模数据库中的路由器无需人工干预。实验结果表明DBCopilot是处理现实世界Text-to-SQL任务的可扩展和有效解决方案为处理大规模模式提供了重大进展。 论文链接 DBCᴏᴘɪʟᴏᴛ: Scaling Natural Language Querying to Massive Databases 代码链接 github: DBCopilot 3.DAMO-ConvAI(☆)-2023.11.15 近年来文本到SQL解析即将自然语言问题转换为可执行的SQL语句备受关注。特别是GPT-4和Claude-2在这一任务中取得了令人瞩目的成果。然而当前主流基准测试如Spider和WikiSQL主要关注包含少量数据库值行的数据库模式导致学术研究与实际应用之间存在差距。为弥补这一差距提出BIRD——一个基于文本到SQL任务的大规模数据库基准测试包含12,751个文本到SQL对和95个数据库总大小达33.4GB涵盖37个专业领域。强调数据库值的重要性揭示了脏数据和噪声数据值、自然语言问题与数据库值之间的外部知识关联以及SQL效率特别是在大型数据库背景下等新挑战。为解决这些问题文本到SQL模型除需具备语义解析能力外还应具备数据库值理解能力。实验结果表明在生成大型数据库准确文本到SQL语句时数据库值至关重要。此外即便是最有效的文本到SQL模型如GPT-4其执行准确率也仅为54.89%远低于人类的92.96%证明挑战依然存在。还提供了效率分析为生成有益于行业的文本到高效SQL语句提供见解。相信BIRD将有助于推动文本到SQL研究的实际应用发展。 论文链接: Can LLM Already Serve as A Database Interface? A BIg Bench for Large-Scale Database Grounded Text-to-SQLs 代码链接: github:bird-sql 4.DAIL-SQL(☆)- 2023.9.8-阿里 大型语言模型LLMs已成为文本到SQL任务的新范式。然而缺乏系统的基准阻碍了设计有效、高效和经济实惠的基于LLM的文本到SQL解决方案的发展。为应对这一挑战本文首先对现有的提示工程方法进行了系统和广泛的比较包括问题表示、示例选择和示例组织并基于这些实验结果详细阐述了它们的优缺点。基于这些发现提出了一种新的集成解决方案名为DAIL-SQL它以86.6%的执行准确率刷新了Spider排行榜并设定了新的标准。为探索开源LLM的潜力在各种场景下对它们进行了研究并通过监督微调进一步提升了它们的性能。的探索凸显了开源LLM在文本到SQL任务中的潜力以及监督微调的优势和劣势。此外为构建高效且经济的基于LLM的文本到SQL解决方案强调了提示工程中的令牌效率并在此指标下对先前的研究进行了比较。希望的工作能为基于LLM的文本到SQL任务提供更深入的理解。 论文链接: Text-to-SQL Empowered by Large Language Models: A Benchmark Evaluation 代码链接: github: DAIL-SQL 4.C3: Zero-shot Text-to-SQL with ChatGPT ☆-2023.7.14 浙大 论文链接https://arxiv.org/pdf/2307.07306.pdf github地址https://github.com/bigbigwatermalon/C3SQL 提出了一种基于ChatGPT的零样本Text-to-SQL方法C3在Spider的holdout测试集上取得了82.3%的执行准确率成为Spider Challenge上最先进的零样本Text-to-SQL方法。C3由三个关键组件组成清晰提示(CP)、提示校准(CH)和一致性输出(CO)分别对应模型输入、模型偏差和模型输出。它为零样本Text-to-SQL提供了系统化的处理方法。 5. SeaD-2023.6.30 在文本到SQLtext-to-SQL任务中由于架构的限制序列到序列seq-to-seq模型往往导致次优性能。本文提出了一种简单而有效的方法将基于Transformer的seq-to-seq模型适配为健壮的文本到SQL生成器。并没有对解码器施加约束或将任务重新格式化为槽填充而是提出了使用Schema感知去噪Schema-aware DenoisingSeaD来训练seq-to-seq模型。SeaD包含两个去噪目标分别训练模型从两种新颖的去噪方法——侵蚀和洗牌中恢复输入或预测输出。这些去噪目标作为辅助任务有助于更好地在序列到序列S2S生成中建模结构化数据。此外改进并提出了一个子句敏感的执行引导Execution GuidedEG解码策略以克服生成模型中EG解码的局限性。实验表明所提出的方法在模式链接和语法正确性方面提高了seq-to-seq模型的性能并在WikiSQL基准测试上建立了新的先进水平。这些结果表明文本到SQL中基于Transformer的seq-to-seq架构的潜力可能被低估了。 论文链接: SeaD: End-to-end Text-to-SQL Generation with Schema-aware Denoising 代码链接: 无 6. SC-prompt-2023.6 采用文本到SQL翻译Text-to-SQL在数据库系统中常见的一个问题是泛化能力较差。具体来说当新数据集上的训练数据有限时现有的少样本few-shotText-to-SQL技术即使在使用经过精心设计的文本提示对预训练语言模型PLMs进行引导时也往往效果不佳。在本文中提出了一种分而治之divide-and-conquer的框架以更好地支持少样本Text-to-SQL翻译。该框架将Text-to-SQL翻译分为两个阶段或子任务使得每个子任务都更容易解决。 第一阶段称之为结构阶段它引导PLM生成一个带有占位符的SQL结构包括SQL命令如SELECT、FROM、WHERE以及SQL运算符如“”、“”。这些占位符用于缺失的标识符。 第二阶段称之为内容阶段它指导PLM用具体的值包括SQL标识符如表名、列名和常量值填充在生成的SQL结构中的占位符。 提出了一种混合提示策略该策略结合了可学习的向量和固定向量即文本提示的词嵌入使得混合提示能够学习上下文信息以更好地在两个阶段中引导PLM进行预测。 此外还设计了关键词约束解码来确保生成的SQL结构的有效性以及结构引导解码来确保模型填充正确的内容。通过与撰写本文时最新的十个Text-to-SQL解决方案进行广泛比较实验结果表明SC-Prompt在少样本场景下显著优于它们。特别是在广泛采用的Spider数据集上给定少于500个标记的训练样本官方训练集的5%SC-Prompt在准确率上比之前的最佳方法高出约5%。 论文链接: Few-shot Text-to-SQL Translation using Structure and Content Prompt Learning 代码链接: github:SC-Prompt 7.T5-SR -2023.6.15 将自然语言查询转换为SQL语句的序列到序列seq2seq方法近年来备受关注。然而与基于抽象语法树的SQL生成相比seq2seq语义解析器面临着更多挑战包括在模式信息预测方面的质量较差以及自然语言查询与SQL语句之间的语义连贯性不足。本文分析了上述困难并提出了一种面向seq2seq的解码策略称为SR。该策略包括一个新的中间表示SSQL以及一个带有分数重估器的重排序方法以分别解决上述障碍。实验结果表明提出的技术是有效的T5-SR-3b在Spider数据集上达到了新的最先进水平。 论文链接: T5-SR: A UNIFIED SEQ-TO-SEQ DECODING STRATEGY FOR SEMANTIC PARSING 代码链接: 无 8.DIN-SQL(☆)-2023.4.27 研究了将复杂的文本到SQL任务分解为更小子任务的问题以及这种分解如何显著提高大型语言模型LLMs在推理过程中的性能。目前在诸如Spider等具有挑战性的文本到SQL数据集上使用LLMs的微调模型与提示方法之间的性能存在显著差距。展示了可以将SQL查询的生成分解为子问题并将这些子问题的解决方案输入到LLMs中以显著提高其性能。对三个LLMs进行的实验表明这种方法能够一致地将其简单的几次尝试性能提升约10%使LLMs的准确率接近或超过当前最佳水平。在Spider的保留测试集上以执行准确率为标准当前最佳水平为79.9而使用该方法实现的新最佳水平为85.3。的基于上下文学习的方法至少比许多经过大量微调的模型高出5%。 论文链接: DIN-SQL: Decomposed In-Context Learning of Text-to-SQL with Self-Correction 代码链接: github DIN-SQL 9.RESDSQL-2023.4.10 近年来预训练语言模型是文本到SQL转换的最佳尝试之一。由于SQL查询的结构特性seq2seq模型负责解析模式项即表和列和骨架即SQL关键字。这种耦合的目标增加了正确解析SQL查询的难度特别是在涉及多个模式项和逻辑运算符时。本文提出了一种基于排名增强的编码和骨架感知解码框架以解耦模式链接和骨架解析。具体来说对于seq2seq编码器-解码器模型其编码器注入了最相关的模式项而不是整个无序的模式项这可以减轻SQL解析过程中的模式链接负担其解码器首先生成骨架然后生成实际的SQL查询这可以隐式地约束SQL解析。在Spider及其三个鲁棒性变体Spider-DK、Spider-Syn和Spider-Realistic上评估了所提框架。实验结果表明的框架表现出良好的性能和鲁棒性 论文链接: RESDSQL: Decoupling Schema Linking and Skeleton Parsing for Text-to-SQL 代码链接: github: RESDSQL 10.ChatGPT’s zero-shot Text-to-SQL-2023.3.12 本文首次对大型对话语言模型ChatGPT的文本到SQL能力进行了全面分析。鉴于ChatGPT在对话能力和代码生成方面的出色表现旨在评估其在文本到SQL任务上的性能。在12个不同语言、设置或场景的基准数据集上进行了实验结果表明ChatGPT具有强大的文本到SQL能力。尽管与当前最佳模型SOTA的性能相比仍有一定差距但考虑到实验是在零样本场景下进行的ChatGPT的表现仍然令人印象深刻。值得注意的是在ADVETARPL场景下零样本的ChatGPT甚至超过了在Spider数据集上需要微调的SOTA模型性能高出4.1%展现了其在实际应用中的潜力。 论文链接: A comprehensive evaluation of ChatGPT’s zero-shot Text-to-SQL capability 代码链接: chatgpt-sql 11.Binder-2023.3.1 尽管端到端的神经方法最近在NLP任务中在性能和易用性方面占据主导地位但它们缺乏可解释性和鲁棒性。提出了BINDER一个无需训练的神经符号框架它将任务输入映射到程序从而实现以下功能1将语言模型LM功能的统一API绑定到编程语言如SQL、Python从而扩展其语法覆盖范围解决更多样化的问题2将LM既用作程序解析器又用作执行期间API调用的底层模型3仅需要少量上下文示例注释。具体而言采用GPT-3 Codex作为LM。在解析阶段仅需少量上下文示例Codex就能够识别任务输入中无法由原始编程语言回答的部分正确生成API调用来提示Codex解决无法回答的部分并在保持与原始语法兼容的同时确定API调用的位置。在执行阶段Codex可以在API调用中提供适当的提示执行多种功能如常识问答、信息提取。BINDER在WIKITABLEQUESTIONS和TABFACT数据集上实现了最先进的结果并提供了明确的输出程序有助于人类调试。请注意之前的最佳系统都需要在数万个特定于任务的样本上进行微调而BINDER仅使用几十个作为上下文示例的注释无需任何训练。 论文链接: BINDING LANGUAGE MODELS IN SYMBOLIC LANGUAGES 代码链接: github: Binder 12.STAR-2022.10.28 在本文中提出了一种新颖的SQL指导的预训练框架STAR用于上下文依赖的文本到SQL解析。该框架利用上下文信息来丰富自然语言NL语句和表结构表示从而改善文本到SQL的转换效果。具体来说提出了两个新颖的预训练目标它们分别探索每个文本到SQL对话中自然语言语句和SQL查询之间的上下文依赖交互i模式状态追踪SST目标通过预测和更新每个模式槽位的值来追踪和探索上下文依赖的SQL查询的模式状态ii语句依赖追踪UDT目标采用加权对比学习来拉近两个语义相似的自然语言语句的表示同时推远每个对话中语义不相似的自然语言语句的表示。 此外还构建了一个高质量的大规模上下文依赖的文本到SQL对话语料库用于预训练STAR。大量实验表明STAR在两个下游基准SPARC和COSQL上取得了新的最佳性能显著优于先前的预训练方法并在排行榜上名列第一。相信所构建的语料库、代码库和预训练的STAR检查点的发布将推动该领域的研究发展。 论文链接: STAR: SQL Guided Pre-Training for Context-dependent Text-to-SQL Parsing 代码链接: https://github.com/alibabaresearch/damo-convai 13.CQR-SQL-2022.10.24 上下文依赖的文本到SQL的任务是将多轮问题翻译成与数据库相关的SQL查询。现有的方法通常侧重于充分利用历史上下文或先前预测的SQL进行当前的SQL解析却忽视了显式理解模式和对话依赖性如共指、省略和用户关注点的变化。在本文中提出了CQR-SQL它利用辅助性的对话问题重构CQR学习来显式地利用模式并解耦多轮SQL解析中的上下文依赖。具体来说首先提出了一种模式增强的递归CQR方法以生成与领域相关的、自包含的问题。其次训练CQR-SQL模型通过模式接地一致性任务和树结构SQL解析一致性任务将多轮问题和辅助性的自包含问题的语义映射到相同的潜在空间从而通过充分理解上下文来增强SQL解析的能力。在撰写本文时的CQR-SQL在两个上下文依赖的文本到SQL基准测试SPARC和COSQL上取得了新的最先进结果。 论文链接: CQR-SQL: Conversational Question Reformulation Enhanced Context-Dependent Text-to-SQL Parsers 代码链接: 无 14. RASAT-2022.10.9 关系结构如模式链接和模式编码已被验证为将自然语言定性转化为SQL查询的关键组件。然而引入这些结构关系也存在一些代价它们通常导致模型结构专业化这在很大程度上限制了在文本到SQL任务中使用大型预训练模型。为了解决这个问题提出了RASAT一种增强了关系感知自注意力的Transformer序列到序列seq2seq架构。该架构能够利用多种关系结构同时有效地继承T5模型的预训练参数。的模型可以整合文献中几乎所有类型的现有关系此外还提出了为多轮次场景引入共指关系。在三个广泛使用的文本到SQL数据集上的实验结果涵盖单轮和多轮场景表明RASAT在所有三个基准测试中均取得了最先进的结果Spider上的EX为75.5%SParC上的IEX为52.6%CoSQL上的IEX为37.4%。 论文链接: RASAT: Integrating Relational Structures into Pretrained Seq2Seq Model for Text-to-SQL 代码链接: https://github.com/LUMIA-group/rasat 15.S2SQL-2022.5 将自然语言问题转换为可执行的SQL查询即文本到SQLText-to-SQL是语义解析的重要分支。虽然最先进的基于图的编码器已成功应用于此任务但它对问题语法的建模并不理想。在本文中提出了S²SQL将语法注入到问题-模式图编码器中用于Text-to-SQL解析器。这有效地利用了文本到SQL中问题的句法依赖信息来提高性能。还采用了解耦约束来诱导多样的关系边嵌入这进一步提高了网络的性能。在Spider和健壮性设置Spider-Syn上的实验表明当使用预训练模型时所提出的方法优于所有现有方法在Spider和Spider-Syn数据集上的性能分别提高了高达1.9%和2.2%。 论文链接: Injecting Syntax to Question-Schema Interaction Graph Encoder for Text-to-SQL Parsers 代码链接: 无 16. HIE-SQL-2022.4.2 近年来上下文依赖的文本到SQL语义解析任务即在交互过程中将自然语言翻译成SQL引起了广泛关注。之前的工作要么从交互历史语句中要么从先前预测的SQL查询中利用上下文依赖信息但由于自然语言与逻辑形式的SQL之间的不匹配它们无法同时利用两者。在这项工作中提出了一个历史信息增强的文本到SQL模型HIE-SQL以同时从历史语句和最后预测的SQL查询中利用上下文依赖信息。鉴于这种不匹配将自然语言和SQL视为两种模态并提出一个双模态预训练模型来弥合它们之间的鸿沟。此外设计了一个模式链接图以增强从语句和SQL查询到数据库模式的连接。展示了历史信息增强方法显著提高了HIE-SQL的性能在撰写本文时它在两个上下文依赖的文本到SQL基准测试——SparC和CoSQL数据集上取得了新的最先进结果。 论文链接: HIE-SQL: History Information Enhanced Network for Context-Dependent Text-to-SQL Semantic Parsing 代码链接: 更多优质内容请关注公号汀丶人工智能会提供一些相关的资源和优质文章免费获取阅读。
文章转载自:
http://www.morning.ggjlm.cn.gov.cn.ggjlm.cn
http://www.morning.lfttb.cn.gov.cn.lfttb.cn
http://www.morning.ndynz.cn.gov.cn.ndynz.cn
http://www.morning.ctrkh.cn.gov.cn.ctrkh.cn
http://www.morning.lszjq.cn.gov.cn.lszjq.cn
http://www.morning.rtpw.cn.gov.cn.rtpw.cn
http://www.morning.yhjlg.cn.gov.cn.yhjlg.cn
http://www.morning.ljfjm.cn.gov.cn.ljfjm.cn
http://www.morning.zdxss.cn.gov.cn.zdxss.cn
http://www.morning.lnrhk.cn.gov.cn.lnrhk.cn
http://www.morning.tqlhn.cn.gov.cn.tqlhn.cn
http://www.morning.jjwzk.cn.gov.cn.jjwzk.cn
http://www.morning.xmtzk.cn.gov.cn.xmtzk.cn
http://www.morning.eshixi.com.gov.cn.eshixi.com
http://www.morning.ppgdp.cn.gov.cn.ppgdp.cn
http://www.morning.c7629.cn.gov.cn.c7629.cn
http://www.morning.wdskl.cn.gov.cn.wdskl.cn
http://www.morning.hxrfb.cn.gov.cn.hxrfb.cn
http://www.morning.hqbk.cn.gov.cn.hqbk.cn
http://www.morning.wcjgg.cn.gov.cn.wcjgg.cn
http://www.morning.rwzmz.cn.gov.cn.rwzmz.cn
http://www.morning.zpkfb.cn.gov.cn.zpkfb.cn
http://www.morning.rkqkb.cn.gov.cn.rkqkb.cn
http://www.morning.dsncg.cn.gov.cn.dsncg.cn
http://www.morning.jgrjj.cn.gov.cn.jgrjj.cn
http://www.morning.slmbg.cn.gov.cn.slmbg.cn
http://www.morning.qxjck.cn.gov.cn.qxjck.cn
http://www.morning.bnbzd.cn.gov.cn.bnbzd.cn
http://www.morning.kncrc.cn.gov.cn.kncrc.cn
http://www.morning.rxfbf.cn.gov.cn.rxfbf.cn
http://www.morning.kdgcx.cn.gov.cn.kdgcx.cn
http://www.morning.npmcf.cn.gov.cn.npmcf.cn
http://www.morning.fgwzl.cn.gov.cn.fgwzl.cn
http://www.morning.xqffq.cn.gov.cn.xqffq.cn
http://www.morning.wrbf.cn.gov.cn.wrbf.cn
http://www.morning.tfei69.cn.gov.cn.tfei69.cn
http://www.morning.cdrzw.cn.gov.cn.cdrzw.cn
http://www.morning.mxhys.cn.gov.cn.mxhys.cn
http://www.morning.trlhc.cn.gov.cn.trlhc.cn
http://www.morning.nlhcb.cn.gov.cn.nlhcb.cn
http://www.morning.fjptn.cn.gov.cn.fjptn.cn
http://www.morning.wbnsf.cn.gov.cn.wbnsf.cn
http://www.morning.cspwj.cn.gov.cn.cspwj.cn
http://www.morning.spfh.cn.gov.cn.spfh.cn
http://www.morning.zpjhh.cn.gov.cn.zpjhh.cn
http://www.morning.tphjl.cn.gov.cn.tphjl.cn
http://www.morning.hkchp.cn.gov.cn.hkchp.cn
http://www.morning.ybyln.cn.gov.cn.ybyln.cn
http://www.morning.qglqb.cn.gov.cn.qglqb.cn
http://www.morning.zkdbx.cn.gov.cn.zkdbx.cn
http://www.morning.junmap.com.gov.cn.junmap.com
http://www.morning.jbhhj.cn.gov.cn.jbhhj.cn
http://www.morning.bgqqr.cn.gov.cn.bgqqr.cn
http://www.morning.lwcgh.cn.gov.cn.lwcgh.cn
http://www.morning.nmrtb.cn.gov.cn.nmrtb.cn
http://www.morning.dnbhd.cn.gov.cn.dnbhd.cn
http://www.morning.bxgpy.cn.gov.cn.bxgpy.cn
http://www.morning.kdgcx.cn.gov.cn.kdgcx.cn
http://www.morning.mttck.cn.gov.cn.mttck.cn
http://www.morning.xtqr.cn.gov.cn.xtqr.cn
http://www.morning.rfkyb.cn.gov.cn.rfkyb.cn
http://www.morning.fldsb.cn.gov.cn.fldsb.cn
http://www.morning.jmwrj.cn.gov.cn.jmwrj.cn
http://www.morning.rwpfb.cn.gov.cn.rwpfb.cn
http://www.morning.kcxtz.cn.gov.cn.kcxtz.cn
http://www.morning.brbmf.cn.gov.cn.brbmf.cn
http://www.morning.hcszr.cn.gov.cn.hcszr.cn
http://www.morning.seoqun.com.gov.cn.seoqun.com
http://www.morning.bpkqd.cn.gov.cn.bpkqd.cn
http://www.morning.hchrb.cn.gov.cn.hchrb.cn
http://www.morning.mqtzd.cn.gov.cn.mqtzd.cn
http://www.morning.cwqrj.cn.gov.cn.cwqrj.cn
http://www.morning.jkrrg.cn.gov.cn.jkrrg.cn
http://www.morning.fnkcg.cn.gov.cn.fnkcg.cn
http://www.morning.ydtdn.cn.gov.cn.ydtdn.cn
http://www.morning.ldynr.cn.gov.cn.ldynr.cn
http://www.morning.jqmmf.cn.gov.cn.jqmmf.cn
http://www.morning.xltdh.cn.gov.cn.xltdh.cn
http://www.morning.txqsm.cn.gov.cn.txqsm.cn
http://www.morning.yqmmh.cn.gov.cn.yqmmh.cn
http://www.tj-hxxt.cn/news/264858.html

相关文章:

  • 汕头如何建设网站设计四川建站模板网站公司
  • 建设银行信用卡网站是哪个好营销型网站建设的原则
  • 知识付费网站搭建教程网站建设风险评估
  • 网站推广优化流程omv wordpress
  • 教育网站赏析备份wordpress配置
  • 不想花钱做网站推广北京网站建设公司 北京网站设计 网页设计制作 高端网站建设 分形科技
  • 网站开发安全管理有没有教做网站的app
  • 做网站资金来源是什么尚硅谷培训机构官网
  • 主流门户网站有哪些企业申报网站
  • 网站建设用户画像例子网络工程师干嘛的
  • 长春模板自助建站苏州网站建设排行
  • 两学一做纪实评价系统网站asp.net网站开发流程及相关工具
  • 想学做网站报班网站建设与管理是哪个软件
  • 网站开发转包协议中信建投证券股份有限公司
  • 中医院网站模板wordpress 多站点模式 帐号是通用的么
  • 公司网站管理制度网站描述代码怎么写
  • 苏州网站建设网站建设友情链接系统
  • 制作网页网站用的是什么网站 空间地址是什么
  • iis 发布asp网站软件开发模型的优缺点及适用范围
  • 网站建设后怎么昆明建站网站资讯平台
  • 网站快速建设软件下载百度推广获客
  • 贵州省住房和城乡建设厅网网站163网站源码
  • 站长之家ip地址查询介绍美食的网站模板免费下载
  • 推荐 网站空间谷歌ads广告投放
  • 网站建设网络课程郑州企业建筑设计软件
  • 做网站是什么意思wordpress头像修改
  • 网站空间 上传程序用什么软件快速做网站
  • 山河建设集团有限公司的网站网店代运营商
  • 怎么获取网站的图片教做网站视频
  • 建网站最少需要多少钱南通做百度网站的公司网站