当前位置: 首页 > news >正文

中铁建设集团有限公司官方网站贵阳百度推广电话

中铁建设集团有限公司官方网站,贵阳百度推广电话,怎么从网上找客户,网站建设的讲话稿导读 ChatGPT面世以来#xff0c;各种大模型相继出现。那么大模型到底是如何训练的呢#xff0c;在这篇文章中#xff0c;我们将尽可能详细地梳理一个完整的 LLM 训练流程#xff0c;包括模型预训练#xff08;Pretrain#xff09;、Tokenizer 训练、指令微调#xff0…导读 ChatGPT面世以来各种大模型相继出现。那么大模型到底是如何训练的呢在这篇文章中我们将尽可能详细地梳理一个完整的 LLM 训练流程包括模型预训练Pretrain、Tokenizer 训练、指令微调Instruction Tuning等环节。 前排提示文末有大模型AGI-CSDN独家资料包哦 文章目录 1.预训练阶段Pretraining Stage 1.1 Tokenizer Training1.2 Language Model PreTraining1.3 数据集清理1.4 模型效果评测 2. 指令微调阶段Instruction Tuning Stage 2.1 Self Instruction2.2 开源数据集整理2.3 模型的评测方法 CSDN独家福利 1.预训练阶段Pretraining Stage 工欲善其事必先利其器。 当前不少工作选择在一个较强的基座模型上进行微调且通常效果不错如[alpaca]、[vicuna] 等。 这种成功的前提在于预训练模型和下游任务的差距不大预训练模型中通常已经包含微调任务中所需要的知识。 但在实际情况中我们通常会遇到一些问题使得我们无法直接使用一些开源 backbone 语言不匹配 大多数开源基座对中文的支持都不太友好例如[Llama]、[mpt]、[falcon] 等这些模型在英文上效果都很优秀但在中文上却差强人意。 专业知识不足 当我们需要一个专业领域的 LLM 时预训练模型中的知识就尤为重要。由于大多数预训练模型都是在通用训练语料上进行学习对于一些特殊领域金融、法律等中的概念和名词无法具备很好的理解。我们通常需要在训练语料中加入一些领域数据如[xuanyuan 2.0]以帮助模型在指定领域内获得更好的效果。 轩辕 2.0金融对话模型论文中所提及的训练语料分布其中 Financial Pretraining 为金融语料 基于上述原因我们在进行 SFT 步骤之前先来看看预训练任务是如何做的。 1.1 Tokenizer Training 在进行预训练之前我们需要先选择一个预训练的模型基座。 一个较为普遍的问题是大部分优秀的语言模型都没有进行充分的中文预训练 因此许多工作都尝试将在英语上表现比较优秀的模型用中文语料进行二次预训练期望其能够将英语上的优秀能力迁移到中文任务中来。 已经有许多优秀的仓库做过这件事情比如[Chinese-LLaMA-Alpaca]。 但在进行正式的训练之前我们还有一步很重要的事情去做词表扩充。 通俗来讲tokenizer 的目的就是将一句话进行切词并将切好词的列表喂给模型进行训练。 例如 输入句子 你好世界 切词结果 [你, 好, 世, 界] 通常tokenizer 有 2 种常用形式WordPiece 和 BPE。 WordPiece WordPiece 很好理解就是将所有的「常用字」和「常用词」都存到词表中 当需要切词的时候就从词表里面查找即可。 bert-base-chinese tokenizer 可视化 上述图片来自可视化工具 [tokenizer_viewer]。 如上图所示大名鼎鼎的 BERT 就使用的这种切词法。 当我们输入句子你好世界 BERT 就会依次查找词表中对应的字并将句子切成词的组合。 BERT 切词测试图 当遇到词表中不存在的字词时tokenizer 会将其标记为特殊的字符 [UNK] Out of VocabularyOOV情况 Byte Pair EncoderBPE WordPiece 的方式很有效但当字词数目过于庞大时这个方式就有点难以实现了。 对于一些多语言模型来讲要想穷举所有语言中的常用词穷举不全会造成 OOV 既费人力又费词表大小为此人们引入另一种方法BPE。 BPE 不是按照中文字词为最小单位而是按照 unicode 编码 作为最小粒度。 对于中文来讲一个汉字是由 3 个 unicode 编码组成的 因为平时我们不会拆开来看毕竟中文汉字是不可拆分的所以我一开始对这个概念也不太熟悉。 我们来看看 LLaMA 的 tokenizerBPE对中文是如何进行 encode 的 上述图片来自可视化工具 [tokenizer_viewer]。 可以看到「编码」两个字能够被正常切成 2 个字 但「待」却被切成了 3 个 token这里的每个 token 就是 1 个 unicode 编码。 LLaMA tokenizer 查找结果「待」不在词表中「编」「码」在词表中 通过 token 查找功能我们可以发现「编」「码」在词表中但「待」不在词表中。 但任何 1 个汉字都是可以由 unicode 表示只是组合顺序不同因此「待」就被切成了 3 个 token。 通常在模型训练不够充足的时候模型会输出一些乱码不合法的 unicode 序列 游泳池是杭州西湖的一个游泳池 词表扩充 为了降低模型的训练难度人们通常会考虑在原来的词表上进行「词表扩充」 也就是将一些常见的汉字 token 手动添加到原来的 tokenizer 中从而降低模型的训练难度。 我们对比 [Chinese-LLaMA] 和 [LLaMA] 之间的 tokenizer 的区别 Chinese LLaMA 和 原始LLaMA 之间 tokenizer 的区别 我们可以发现Chinese LLaMA 在原始 tokenizer 上新增了17953 个 tokens且加入 token 的大部分为汉字。 而在 [BELLE] 中也有同样的做法 在 120w 行中文文本上训练出一个 5w 规模的 token 集合 并将这部分 token 集合与原来的 LLaMA 词表做合并 最后再在 3.2B 的中文语料上对这部分新扩展的 token embedding 做二次预训练。 《Towards Better Instruction Following Language Models for Chinese》 Page-4 1.2 Language Model PreTraining 在扩充完 tokenizer 后我们就可以开始正式进行模型的预训练步骤了。 Pretraining 的思路很简单就是输入一堆文本让模型做 Next Token Prediction 的任务这个很好理解。 我们主要来讨论几种预训练过程中所用到的方法数据源采样、数据预处理、模型结构。 数据源采样 在 [gpt3] 的训练过程中存在多个训练数据源论文中提到对不同的数据源会选择不同采样比例 GPT3 Paper Page-9 通过「数据源」采样的方式能够缓解模型在训练的时候受到「数据集规模大小」的影响。 从上图中可以看到相对较大的数据集Common Crawl会使用相对较大的采样比例60% 这个比例远远小于该数据集在整体数据集中所占的规模410 / 499 82.1% 因此CC 数据集最终实际上只被训练了 0.440.6 / 0.82 * (300 / 499个 epoch。 而对于规模比较小的数据集Wikipedia则将多被训练几次3.4 个 epoch。 这样一来就能使得模型不会太偏向于规模较大的数据集从而失去对规模小但作用大的数据集上的学习信息。 数据预处理 数据预处理主要指如何将「文档」进行向量化。 通常来讲在 Finetune 任务中我们通常会直接使用 truncation 将超过阈值2048的文本给截断 但在 Pretrain 任务中这种方式显得有些浪费。 以书籍数据为例一本书的内容肯定远远多余 2048 个 token但如果采用头部截断的方式 则每本书永远只能够学习到开头的 2048 tokens 的内容连序章都不一定能看完。 因此最好的方式是将长文章按照 seq_len2048作分割将切割后的向量喂给模型做训练。 模型结构 为了加快模型的训练速度通常会在 decoder 模型中加入一些 tricks 来缩短模型训练周期。 目前大部分加速 tricks 都集中在 Attention 计算上如MQA 和 Flash Attention [falcon] 等 此外为了让模型能够在不同长度的样本上都具备较好的推理能力 通常也会在 Position Embedding 上进行些处理选用 ALiBi[Bloom]或 RoPE[GLM-130B]等。 1.3 数据集清理 中文预训练数据集可以使用 [悟道]数据集分布如下主要以百科、博客为主 悟道-数据分布图 但开源数据集可以用于实验如果想突破性能则需要我们自己进行数据集构建。 在 [falcon paper] 中提到 仅使用「清洗后的互联网数据」就能够让模型比在「精心构建的数据集」上有更好的效果 一些已有的数据集和它们的处理方法如下 各种数据源 数据清理方法 1.4 模型效果评测 关于 Language Modeling 的量化指标较为普遍的有 [PPL][BPC] 等 可以简单理解为在生成结果和目标文本之间的 Cross Entropy Loss 上做了一些处理。 这种方式可以用来评估模型对「语言模板」的拟合程度 即给定一段话预测后面可能出现哪些合法的、通顺的字词。 但仅仅是「生成通顺句子」的能力现在已经很难满足现在人们的需求 大部分 LLM 都具备生成流畅和通顺语句能力很难比较哪个好哪个更好。 为此我们需要能够评估另外一个大模型的重要能力 —— 知识蕴含能力。 C-Eval 一个很好的中文知识能力测试数据集是 [C-Eval]涵盖1.4w 道选择题共 52 个学科。 覆盖学科如下 c-eval 数据集覆盖学科图 由于是选择题的形式我们可以通过将题目写进 prompt 中 并让模型续写 1 个 token判断这个续写 token 的答案是不是正确答案即可。 但大部分没有精调过的预训练模型可能无法续写出「A B C D」这样的选项答案 因此官方推荐使用 5-shot 的方式来让模型知道如何输出答案 以下是中国关于会计考试的单项选择题请选出其中的正确答案。 下列关于税法基本原则的表述中不正确的是____。 A. 税收法定原则包括税收要件法定原则和税务合法性原则 B. 税收公平原则源于法律上的平等性原则 C. 税收效率原则包含经济效率和行政效率两个方面 D. 税务机关按法定程序依法征税可以自由做出减征、停征或免征税款的决定 答案D 甲公司是国内一家领先的新媒体、通信及移动增值服务公司由于遭受世界金融危机甲公司经济利润严重下滑经营面临困境但为了稳定职工队伍公司并未进行裁员而是实行高层管理人员减薪措施。甲公司此举采用的收缩战略方式是____。 A. 转向战略 B. 放弃战略 C. 紧缩与集中战略 D. 稳定战略 答案C … # 第 3, 4, 5 道样例题 下列各项中不能增加企业核心竞争力的是____。 A. 产品差异化 B. 购买生产专利权 C. 创新生产技术 D. 聘用生产外包商 答案 通过前面的样例后模型能够知道在「答案」后面应该输出选项字母。 于是我们获得模型续写后的第一个 token 的概率分布logits 并取出「A B C D」这 4 个字母的概率通过 softmax 进行归一化 probs (torch.nn.functional.softmax( torch.tensor( [ logits[self.tokenizer.encode( A, bosFalse, eosFalse)[0]], logits[self.tokenizer.encode( B, bosFalse, eosFalse)[0]], logits[self.tokenizer.encode( C, bosFalse, eosFalse)[0]], logits[self.tokenizer.encode( D, bosFalse, eosFalse)[0]], ] ), dim0, ).detach().cpu().numpy() ) pred {0: A, 1: B, 2: C, 3: D}[np.argmax(probs)] # 将概率最大的选项作为模型输出的答案 C-Eval 通过这种方式测出了许多模型在中文知识上的效果 由于是 4 选项问题所以基线随机选择的正确率是 25%。 C-Eval 也再一次证明了 GPT-4 是个多么强大的知识模型 各模型在 5-shot 下的得分排名 2. 指令微调阶段Instruction Tuning Stage 在完成第一阶段的预训练后就可以开始进到指令微调阶段了。 由于预训练任务的本质在于「续写」而「续写」的方式并一定能够很好的回答用户的问题。 例如 因为训练大多来自互联网中的数据我们无法保证数据中只存在存在规范的「一问一答」格式 这就会造成预训练模型通常无法直接给出人们想要的答案。 但是这并不代表预训练模型「无知」只是需要我们用一些巧妙的「技巧」来引导出答案 不过这种需要用户精心设计从而去「套」答案的方式显然没有那么优雅。 既然模型知道这些知识只是不符合我们人类的对话习惯那么我们只要再去教会模型「如何对话」就好了。 这就是 Instruction Tuning 要做的事情即指令对齐。 OpenAI 在 [instruction-following] 中展示了 GPT-3 和经过指令微调前后模型的区别 GPT-3 只是在做续写任务InstructGPT 则能够回答正确内容 2.1 Self Instruction 既然我们需要去「教会模型说人话」 那么我们就需要去精心编写各式各样人们在对话中可能询问的问题以及问题的答案。 在 [InstructGPT Paper] 中使用了 1.3w 的数据来对 GPT-3.5 进行监督学习下图中左 SFT Data InstructGPT Paper 训练数据集预览 可以观察到数据集中人工标注labeler占大头 这还仅仅只是 InstructGPT和 ChatGPT 远远不是一个量级。 非官方消息ChatGPT 使用了百万量级的数据进行指令微调。 可见使用人工标注是一件成本巨大的事情只是找到人不够需要找到「专业」且「认知一致」的标注团队。 如果这件事从头开始做自然很难OpenAI 确实厉害但今天我们已经有了 ChatGPT 了 我们让 ChatGPT 来教我们自己的模型不就好了吗 这就是 Self Instruction 的思路即通过 ChatGPT 的输入输出来蒸馏自己的模型。 一个非常出名的项目是 [stanford_alpaca]。 如果从 ChatGPT 「套」数据那么我们至少需要「套」哪些数据。 Instruction Tuning 中的「输入」问题和「输出」答案是训练模型的关键 答案很好得到喂给 ChatGPT 问题根据返回结果就能获得 但「问题」从哪里获得呢 靠人想太累了屏幕前的你不妨试试看看短时间内能想出多少有价值的问题 Alpaca 则是使用「种子指令seed」使得 ChatGPT 既生成「问题」又生成「答案」。 由于 Alpaca 是英文项目为了便于理解我们使用相同思路的中文项目 [BELLE] 作为例子。 通俗来讲就是人为的先给一些「训练数据样例」让 ChatGPT 看 紧接着利用 ChatGPT 的续写功能让其不断地举一反三出新的训练数据集 你被要求提供10个多样化的任务指令。这些任务指令将被提供给GPT模型我们将评估GPT模型完成指令的能力。 以下是你提供指令需要满足的要求 1.尽量不要在每个指令中重复动词要最大化指令的多样性。 2.使用指令的语气也应该多样化。例如将问题与祈使句结合起来。 3.指令类型应该是多样化的包括各种类型的任务类别种类例如brainstormingopen QAclosed QArewriteextractgenerationclassificationchatsummarization。 4.GPT语言模型应该能够完成这些指令。例如不要要求助手创建任何视觉或音频输出。例如不要要求助手在下午5点叫醒你或设置提醒因为它无法执行任何操作。例如指令不应该和音频、视频、图片、链接相关因为GPT模型无法执行这个操作。 5.指令用中文书写指令应该是1到2个句子允许使用祈使句或问句。 6.你应该给指令生成适当的输入输入字段应包含为指令提供的具体示例它应该涉及现实数据不应包含简单的占位符。输入应提供充实的内容使指令具有挑战性。 7.并非所有指令都需要输入。例如当指令询问一些常识信息比如“世界上最高的山峰是什么”不需要提供具体的上下文。在这种情况下我们只需在输入字段中放置“无输入”。当输入需要提供一些文本素材例如文章文章链接时就在输入部分直接提供一些样例。当输入需要提供音频、图片、视频或者链接时则不是满足要求的指令。 8.输出应该是针对指令和输入的恰当回答。 下面是10个任务指令的列表 1.指令: 在面试中如何回答这个问题 1.输入:当你在车里独处时你会想些什么 1.输出:如果是在晚上我通常会考虑我今天所取得的进步如果是在早上我会思考如何做到最好。我也会尝试练习感恩和活在当下的状态以避免分心驾驶。 2.指令: 按人口对这些国家进行排名。 2.输入:巴西中国美国日本加拿大澳大利亚 2.输出:中国美国巴西日本加拿大澳大利亚 3.指令: 如上述例子所示我们先给出 2 个样例并让 ChatGPT 进行续写 ChatGPT 续写结果 2.2 开源数据集整理 在这一章中我们将梳理一些开源的 Instruction Tuning 的数据集 除了直接拿来用以外我们期望通过分析这些已有数据集从而学习如何构建一个指令数据集。 Alpaca [stanford_alpaca] 采用上述的 self instruction 的方式采集了 5200 条指令训练数据集。 数据样例如下 {instruction: Arrange the words in the given sentence to form a grammatically correct sentence., input: quickly the brown fox jumped, output: The quick brown fox jumped quickly. } 其中instruction 代表要求模型做的任务input 代表用户输入 output 代表喂给模型的 label。 Alpaca 覆盖了多种类型的指令其数据分布如下 Alpaca 数据分布图 包含写作、描述、分类、摘要等多种类型的任务集合。 BELLE BELLE 开放了好几种规模的数据集[100万]、[200万]、[350万] 等。 训练数据集样例如下 {instruction: 判断给定的文章是否符合语法规则。如果不符合请提供修改建议。 下面是一篇文章的开头: ‘为了探讨这个主题本文将提供一系列数据和实例以证明这一观点。’, input: , output: 这个开头符合语法规则。 } 由于数据量很大我们无法统计出训练数据集中各任务的真实占比 但从 [1000条评测集] 数据分布可以推测出训练数据集中同样包含摘要、问答、分类等任务。 BELLE - 评测集分布 我们按照类别对评测数据进行采样结果如下 2.3 模型的评测方法 比起预训练Pretrain环节里相对明确的评价指标如PPL、NLL等 Instruction 环节中的评价指标比较令人头疼。 鉴于语言生成模型的发展速度BLEU 和 ROUGH 这样的指标已经不再客观。 一种比较流行的方式是像 [FastChat] 中一样利用 GPT-4 为模型的生成结果打分 我们也尝试使用同样的 Prompt 对 3 种开源模型OpenLlama、ChatGLM、BELLE 进行测试。 注意下面的测试结果仅源自我们自己的实验不具备任何权威性。 对于每一个问题我们先获得 ChatGPT 的回复以及另外 3 种模型的回复 接着我们将 「ChatGPT 答案 - 候选模型答案」这样的 pair 喂给 GPT-4 打分满分为 10 分。 得到的结果如下 测试结果 测试 prompt 我们对每个任务单独进行了统计并在最后一列求得平均值。 GPT-4 会对每一条测试样本的 2 个答案分别进行打分并给出打分理由 GPT-Review 的结果 但是我们发现GPT-4 打出的分数和给出理由并不一定正确。 如上图所示GPT-4 为右边模型的答案打出了更高的分数给出的理由是 将「最长时期」改为了「最长时期之一」会更准确。 但事实上Instruction 中明确设定就是「最长时期」 这种「给高分」的理由其实是不正确的。 此外我们还发现仅仅调换句子顺序也会对最后打分结果产生影响 针对这个问题我们考虑「调换句子顺序并求和平均」来缓解。 但不管怎么样GPT-4 给出的分数或许并没有我们想象中的那么靠谱 为此我们通过人工的 Review 的方式对每个答案进行了一次回扫得到的结果和标准如下 再次重申我们只是期望指出 GPT-4 打分可能会和实际产生偏差的问题这里排名不具备任何权威性。 人工 Review 结果 打分原则 我们可以看到 在 GPT-4 打分的结果中已经有模型的效果甚至超过了 ChatGPT分数为 1.02 但再经过人工 Review 后ChatGPT 的答案是我们认为更合理一些的。 当然最近陆陆续续的推出了许多新的评测方法如[PandaLM] 以及许多比较有影响力的评测集如[C-Eval]、[open_llm_leaderboard] 等 我们或许会在后续的整理中更新。 CSDN独家福利 最后感谢每一个认真阅读我文章的人礼尚往来总是要有的下面资料虽然不是什么很值钱的东西如果你用得到的话可以直接拿走
文章转载自:
http://www.morning.wtcyz.cn.gov.cn.wtcyz.cn
http://www.morning.bmmyx.cn.gov.cn.bmmyx.cn
http://www.morning.zthln.cn.gov.cn.zthln.cn
http://www.morning.rwqj.cn.gov.cn.rwqj.cn
http://www.morning.htfnz.cn.gov.cn.htfnz.cn
http://www.morning.jxcwn.cn.gov.cn.jxcwn.cn
http://www.morning.kzxlc.cn.gov.cn.kzxlc.cn
http://www.morning.jrslj.cn.gov.cn.jrslj.cn
http://www.morning.c7513.cn.gov.cn.c7513.cn
http://www.morning.wpydf.cn.gov.cn.wpydf.cn
http://www.morning.rmmz.cn.gov.cn.rmmz.cn
http://www.morning.dmfdl.cn.gov.cn.dmfdl.cn
http://www.morning.sxhdzyw.com.gov.cn.sxhdzyw.com
http://www.morning.drfcj.cn.gov.cn.drfcj.cn
http://www.morning.yrdt.cn.gov.cn.yrdt.cn
http://www.morning.cknrs.cn.gov.cn.cknrs.cn
http://www.morning.qlck.cn.gov.cn.qlck.cn
http://www.morning.ztmnr.cn.gov.cn.ztmnr.cn
http://www.morning.pznhn.cn.gov.cn.pznhn.cn
http://www.morning.hxrg.cn.gov.cn.hxrg.cn
http://www.morning.mcjyair.com.gov.cn.mcjyair.com
http://www.morning.wzwyz.cn.gov.cn.wzwyz.cn
http://www.morning.wrcgy.cn.gov.cn.wrcgy.cn
http://www.morning.hrzymy.com.gov.cn.hrzymy.com
http://www.morning.wdjcr.cn.gov.cn.wdjcr.cn
http://www.morning.cptzd.cn.gov.cn.cptzd.cn
http://www.morning.rbbzn.cn.gov.cn.rbbzn.cn
http://www.morning.msgnx.cn.gov.cn.msgnx.cn
http://www.morning.ldcsw.cn.gov.cn.ldcsw.cn
http://www.morning.fcxt.cn.gov.cn.fcxt.cn
http://www.morning.bkfdf.cn.gov.cn.bkfdf.cn
http://www.morning.kqlrl.cn.gov.cn.kqlrl.cn
http://www.morning.kxnjg.cn.gov.cn.kxnjg.cn
http://www.morning.jjzxn.cn.gov.cn.jjzxn.cn
http://www.morning.wwkdh.cn.gov.cn.wwkdh.cn
http://www.morning.bpmnq.cn.gov.cn.bpmnq.cn
http://www.morning.rqmqr.cn.gov.cn.rqmqr.cn
http://www.morning.tzlfc.cn.gov.cn.tzlfc.cn
http://www.morning.dspqc.cn.gov.cn.dspqc.cn
http://www.morning.ydxwj.cn.gov.cn.ydxwj.cn
http://www.morning.nlmm.cn.gov.cn.nlmm.cn
http://www.morning.sgqw.cn.gov.cn.sgqw.cn
http://www.morning.bmts.cn.gov.cn.bmts.cn
http://www.morning.djmdk.cn.gov.cn.djmdk.cn
http://www.morning.swkpq.cn.gov.cn.swkpq.cn
http://www.morning.yrdkl.cn.gov.cn.yrdkl.cn
http://www.morning.lwxsy.cn.gov.cn.lwxsy.cn
http://www.morning.kpgft.cn.gov.cn.kpgft.cn
http://www.morning.tnnfy.cn.gov.cn.tnnfy.cn
http://www.morning.sgpnz.cn.gov.cn.sgpnz.cn
http://www.morning.xrct.cn.gov.cn.xrct.cn
http://www.morning.nuobeiergw.cn.gov.cn.nuobeiergw.cn
http://www.morning.jzfxk.cn.gov.cn.jzfxk.cn
http://www.morning.wynqg.cn.gov.cn.wynqg.cn
http://www.morning.yrrnx.cn.gov.cn.yrrnx.cn
http://www.morning.lkxzb.cn.gov.cn.lkxzb.cn
http://www.morning.mxnhq.cn.gov.cn.mxnhq.cn
http://www.morning.rdnpg.cn.gov.cn.rdnpg.cn
http://www.morning.brxzt.cn.gov.cn.brxzt.cn
http://www.morning.pqchr.cn.gov.cn.pqchr.cn
http://www.morning.mqldj.cn.gov.cn.mqldj.cn
http://www.morning.cbndj.cn.gov.cn.cbndj.cn
http://www.morning.wgqtj.cn.gov.cn.wgqtj.cn
http://www.morning.jlrym.cn.gov.cn.jlrym.cn
http://www.morning.zxwqt.cn.gov.cn.zxwqt.cn
http://www.morning.tsrg.cn.gov.cn.tsrg.cn
http://www.morning.cwskn.cn.gov.cn.cwskn.cn
http://www.morning.qtqk.cn.gov.cn.qtqk.cn
http://www.morning.dnbhd.cn.gov.cn.dnbhd.cn
http://www.morning.wjlrw.cn.gov.cn.wjlrw.cn
http://www.morning.nzlqt.cn.gov.cn.nzlqt.cn
http://www.morning.nqpy.cn.gov.cn.nqpy.cn
http://www.morning.ndltr.cn.gov.cn.ndltr.cn
http://www.morning.dmzqd.cn.gov.cn.dmzqd.cn
http://www.morning.qhmgq.cn.gov.cn.qhmgq.cn
http://www.morning.qcslh.cn.gov.cn.qcslh.cn
http://www.morning.dthyq.cn.gov.cn.dthyq.cn
http://www.morning.dlwzm.cn.gov.cn.dlwzm.cn
http://www.morning.hqxyt.cn.gov.cn.hqxyt.cn
http://www.morning.rhpgk.cn.gov.cn.rhpgk.cn
http://www.tj-hxxt.cn/news/281629.html

相关文章:

  • 自己做个网站需要些什么软件开发培训机构有哪些
  • 半商城性质网站源代码网上学做网站
  • 网站空间 云端坪山网站设计的公司
  • 展示类网站模板海南网站搭建外包
  • 做免费资料分享网站会不会涉及版权张家界建设局网站
  • 广州市建设局网站wordpress主题模板百度云
  • iis做的网站模板商城网站模板库
  • 杭州网站建设培训学校网站开发者的设计构想
  • 网站配色方法海南网站建设公司哪家好
  • wordpress站点网址易网网站
  • 天津企业网站建设公司网站开发区
  • 深圳建设交易平台官网关键词首页排名优化公司推荐
  • 现在流行的网站开发制作工具合肥建站公司有哪家招聘的
  • 网站建设基本流程费用国内咨询公司排名前十名
  • 建 网站 是软件开发沈阳seo优化
  • 国外推广国内网站h5在线制作免费版
  • 玉山网站制作公众号平台登陆
  • 色和尙做爰网站建设网站能赚钱
  • 网站做的好的医院免费制作二维码的网站
  • 福州网站开发cms报网站开发培训班
  • 在线图片编辑器网站优化网站建设
  • 大姨吗网站网页升级防问广大
  • 简单学校网站模板免费下载哪些网站用c 做的
  • 网站做公司爱站网关键词长尾挖掘工具
  • 服装网站建设可行性分析重庆建设摩托车官网商城
  • 多层分销网站建设湖南十大传媒公司
  • 洛阳市住房和城乡建设网站校园局域网站建设费用
  • 秦皇岛网站排名大型网站建设哪个好
  • 微信朋友圈的网站连接怎么做WordPress本地可以调出点赞功能吗
  • 网站建设费怎么做分录网站建设宣传的目的