官方网站建立,推广赚钱,个人做的网站不能做淘客,宁晋网站建设公司****非斜体正文为原文献内容#xff08;也包含笔者的补充#xff09;#xff0c;灰色块中是对文章细节的进一步详细解释#xff01; 四、提示范式#xff08;Explanation for Prompting Paradigm#xff09; 随着语言模型规模的扩大#xff0c;基于提示#xff08;prom…****非斜体正文为原文献内容也包含笔者的补充灰色块中是对文章细节的进一步详细解释 四、提示范式Explanation for Prompting Paradigm 随着语言模型规模的扩大基于提示prompting-based的模型展现出了一些新的能力这要求我们从新的角度来阐明它们背后的机制。然而模型规模的急剧增加使得传统的解释方法不再适用。将针对传统微调范式fine-tuning paradigms的某些可解释性技术 应用于 基于提示的范式时面临的挑战可以从多个方面总结。
例如基于提示的模型依赖于推理能力Wei et al., 2023b这使得局部或特定示例的解释变得意义不大。此外在拥有数百亿甚至更多参数的规模上计算要求高的解释技术很快变得不可行。而且基于提示的模型的复杂内部工作机制和推理过程过于复杂无法被简化的替代模型有效捕捉。
鉴于这些挑战针对这种提示范式出现了新的解释技术
例如思维链chain of thought, CoT解释可能为理解和解释基于提示的大型语言模型的行为提供了一个更合适的方法。此外专注于识别对预测有贡献的影响性示例的方法变得越来越重要。识别这些关键数据点可能会显著增强我们对数据集构成的理解。传统微调范式的全局解释技术也被广泛用于基于提示的LLMs。特别是这些技术能够提供高层次解释如基于概念的解释和基于模块的解释。
在这一部分我们首先介绍属于提示范式prompting paradigm的模型解释技术包括1解释基础模型比如LLaMA-2第4.1节2解释助手模型比如LLaMA-2-Chat第4.2节以及3如何利用大型语言模型LLMs的推理和解释能力来提高语言模型的预测性能并实现有益的应用第4.3节。 4.1 基础模型解释Base Model Explanation
随着语言模型规模的增加它们展现出了新的能力比如少量样本学习few-shot learning即仅通过几个例子就能学习新概念的能力。它们还展示了思维链chain-of-thought, CoT提示的能力这允许我们向模型输入一系列提示引导其生成朝特定方向发展并让它解释其推理过程Wei et al., 2022。
鉴于这些新出现的属性可解释性研究有三个主要目标1理解这些大型语言模型如何能够快速从有限的示例中掌握新任务这有助于最终用户解释模型的推理过程2解释CoT提示3表示工程。
4.1.1 解释上下文学习Explaining In-context Learning
可解释人工智能技术已经被用来阐明大型语言模型中提示prompt是如何工作的。具体来说我们讨论了那些能够揭示上下文学习ICL如何影响模型行为的技术。
一项研究使用SST-2情感分析基准任务作为基线任务以解释LLMs中的上下文学习范式Li et al., 2023b。它通过分析对比性演示和显著性图来研究ICL如何在LLMs中工作。作者通过翻转标签、扰动输入文本和添加补充解释来构建对比性演示。对于情感分析任务他们发现翻转标签更有可能降低小型模型例如GPT-2的显著性而对大型模型例如InstructGPT产生相反的影响。不同演示类型的影响似乎因模型规模和任务类型而异。需要在更多模型、任务和数据集上进行进一步分析。 对比性演示Contrastive Demonstrations 通过构建不同的例子对例如翻转标签的例子来展示模型在不同情况下的反应以分析模型是如何学习和做出决策的。 显著性图Saliency Maps 一种可视化技术用来显示模型在做出预测时哪些输入部分如文本中的单词或图像中的像素最具影响力。 另一项研究调查了大型语言模型中的ICL是否由其预训练中的语义先验启用或者是否从提供的示例中学习输入标签映射Wei et al., 2023b。实验结果表明大型模型可以覆盖语义先验并学习矛盾的输入-标签映射而小型模型更多地依赖于先验。在ICL示例中翻转标签的实验表明大型模型可以学会翻转预测而小型模型则不能。这些结果表明LLMs具有更大的能力来学习任意的输入-标签映射这是一种不受语义先验限制的象征性推理这挑战了ICL仅由利用先验驱动的观点。 语义先验Semantic Priors 指的是模型在预训练阶段学到的关于语言和世界的一般知识这些知识可能会影响模型对新任务的理解和执行。 符号推理Symbolic Reasoning 一种推理形式涉及使用符号和规则来进行逻辑推理与基于统计的学习形成对比。 输入-标签映射Input-Label Mappings 指的是模型如何将输入数据映射到特定标签或输出的过程这是机器学习中的核心任务之一。 这段有点看不懂来个说人话版 这项研究是在探讨大型语言模型是怎么进行上下文学习的。研究者想知道这些模型是依赖于它们事先就知道的信息语义先验还是能从给定的例子中学习新的对应关系输入标签映射。 实验发现大型模型很特别它们不仅能记住之前学的东西还能学会新的例子中不同的对应关系哪怕这些新关系和它们之前知道的不一样。而小型模型则更多地依赖于它们已经知道的信息。 研究者还做了一个实验他们故意把一些例子的标签弄反想看看模型会怎么办。结果发现大型模型能够根据这些故意弄反的标签学习并调整自己的预测。但小型模型就做不到这一点它们还是按照原来的记忆来做预测。 这说明大型语言模型有很强的学习能力它们不仅能用已知的知识来理解问题还能学习新的例子即使这些例子和它们已知的知识相冲突。这种能力挑战了我们之前的一种观点即认为大型语言模型的学习完全依赖于它们事先就知道的信息。简而言之大型模型不仅能记住旧知识还能学习新花样。 4.1.2 解释CoT提示Explaining CoT Prompting
一项研究通过分析输入token的显著性分数来研究思维链CoT提示如何影响LLMs的行为Wu et al., 2023a。显著性分数表明每个输入token对模型输出的影响程度。这些分数是使用基于梯度的特征归因方法计算的。目标是了解CoT提示是否与标准提示相比改变了显著性分数从而提供为什么CoT能提高性能的见解。显著性分数的分析表明CoT提示使模型以更稳定的方式考虑问题输入token。这种对输入的更稳定考虑可能促使生成与标准提示相比更一致准确的答案。
其他工作专注于在少样本提示中扰动CoT例如通过添加错误来确定哪些方面对于生成高性能解释很重要Madaan Yazdanbakhsh, 2022; Wang et al., 2022a。提出了叫做“反事实提示”的方法来测试模型对来扰动问题中关键组成部分符号、模式和文本的反应Madaan Yazdanbakhsh, 2022。实验分析表明这些中间的推理步骤更像是指引模型把符号转换成正确答案的信号而不是帮助模型学会解决问题的方法。 4.1.3 表示工程Representation Engineering
与上述两个从提示工程角度解释LLMs的研究线不同这一系列研究从表示工程角度解释LLMs。表示工程从自上而下的视角解释模型并将表示及其转换视为分析的主要元素。这些方法侧重于表示空间的结构和特征以捕获紧急表示和高级认知现象。
Zou等人2023将表示工程分为两部分1表示阅读2表示控制。
表示阅读识别和理解网络中高级概念和功能的表现的过程。这类似于“读取”模型的内部状态以了解它是如何处理特定输入的。受神经影像学方法的启发采用了线性人工断层扫描。为了很好地引出概念和功能分别设计了包括刺激或指令的提示模板。对于概念可以从最具代表性的token的表示中收集神经活动也可以从最后一个令牌的响应中收集。对于功能可以从特定令牌后的响应中收集神经活动。然后引入线性探测器来预测概念和功能与神经活动。表示控制旨在基于表示阅读的理解操纵模型内部表示的过程目的是使模型的行为符合特定的安全或性能要求。直接添加阅读向量可以诱导模型输出真实结果减去阅读向量可以诱导模型撒谎这表明在改进模型方面具有巨大潜力。
同样研究高质量真/假陈述数据集上的表示结构也揭示了表示的线性结构。训练有素的探测器在其他数据集上泛化得很好。如前述工作结论所述可以识别真实方向并用于引起真实或虚假输出Marks Tegmark, 2023。通过分析六个空间或时间数据集的学到的表示像LLaMA-13B这样的LLMs被证明学会了空间和时间的线性表示。此外还在不同大小的模型中发现了相似的模式。随着模型规模的增加表现也越来越准确。模型还有专门的神经元它们作为空间或时间的函数激活这与LLMs中事实知识的建立相一致Gurnee Tegmark, 2023。
总之表示工程可能是控制模型输出的有希望的技术但还需要进一步的消融研究来确定其优势和劣势。 4.2 助手模型解释Assistant Model Explanation
由于大规模无监督预训练和监督对齐微调属于这一范式的LLMs具有强大的推理能力。然而它们的庞大规模也使它们容易产生问题输出如幻觉。可解释性研究旨在1阐明对齐微调的作用2分析幻觉的原因3不确定性量化。 Assistant Model即助手模型是指专门为特定用途设计的人工智能模型它能够使用OpenAI的模型并调用各种工具来执行任务。这些模型通常在对话系统中扮演“助手”的角色响应用户的请求并提供帮助。助手模型可以根据不同的需求进行定制例如通过设置指令instructions来定义助手的性格和任务目标或者通过接入不同的工具tools来扩展助手的能力。 4.2.1 解释微调的作用Explaining the Role of Fine-tuning
助手模型Assistant models通常分为两个阶段进行训练。首先它们在大量原始文本上进行无监督预训练以学习通用的语言表示。其次模型通过监督和强化学习进行对齐微调使模型与特定任务和用户偏好对齐。这些模型的可解释性研究集中在确定它们的知识主要来自初始预训练阶段即它们获得通用语言能力还是来自对齐微调阶段即它们被定制为特定任务和偏好。了解模型的知识来源为如何改进和解释它们的性能提供了见解。
Zhou等人2023最近的一项研究调查了预训练与命令instruction微调在语言模型中的相对重要性。在实验中作者仅使用1000个精心挑选的命令对 LLaMA-65B 模型进行微调没有使用强化学习并取得了与GPT-4相当的性能。
研究人员假想对齐可能是一种更简单的过程其中模型学习交互风格和格式而LLMs的几乎所有知识都是在预训练阶段获得的。实验结果证明了预训练的强大力量及其相对于大规模微调和强化学习的重要性。复杂的微调和强化学习技术可能没有以前认为的那么关键。另一方面这项研究还表明在指令微调期间数据质量比数据量更重要。
此外Wu等人2023通过检查命令遵循和概念级知识演变研究了命令微调的作用。结果表明经过命令微调的模型可以更好地区分命令和上下文并很好地遵循用户的命令。此外它们可以更多地关注输入提示的中间和尾部而不是预训练模型。 命令遵循Instruction Following 研究考察了模型在经过命令微调后是否能够更好地理解和遵循用户的命令。这意味着模型在接收到具体的任务命令时能否准确地按照这些命令执行任务。 概念级知识演变Concept-level Knowledge Evolution 研究还分析了模型在微调过程中其内部的概念级知识是如何发展和变化的。这涉及到模型如何更新和调整其对特定概念和知识的理解以适应新的指令和任务需求。 在对模型进行微调时模型会根据特定的用户任务来调整其内部的概念和知识结构使其更适合这些任务。但是这种调整并不改变模型生成语言的总体统计特性也就是说模型在词汇使用、句法结构等方面的整体模式没有发生大的变化。与普遍认为更高层捕获更多语义知识的观点相反在微调模型中捕获的语义知识比例最初增长然后急剧下降。在微调模型时模型的自注意力机制会发生变化特别是低层的神经元会更多地参与到编码词与词之间的关系帮助模型识别和理解指令中的动词。这种调整使得模型能够更好地理解和响应用户的指令。
另一项最近的研究Gudibande等人2023表明模仿imitation可以成功地改善语言模型的风格、个性和遵循指令的能力但在更复杂的维度上如事实性、编码和问题解决等方面模仿并没有改善语言模型。模仿是训练助手模型的另一种常用技术其中像 GPT-2 或 LLaMA 这样的基础模型是根据更高级系统例如 ChatGPT 等专有模型生成的输出进行微调的。
此外LLaMA-2的技术报告Touvron等人2023表明微调阶段主要有助于提高语言模型的有用性和安全性其中有用性描述了LLaMA-2Chat响应满足用户请求和包含预期信息的程度安全性指的是避免不安全响应如有毒内容。
总的来说这些研究强调了基础模型的重要性突出了预训练的重要性。发现表明助手模型的知识主要是在预训练阶段获得的。随后的指令微调有助于激活这些知识以产生对最终用户有用的输出。此外强化学习可以进一步使模型与人类价值观对齐。 4.2.2 解释幻觉Explaining Hallucination
LLMs的快速发展引发了人们对其可信度的担忧因为它们有可能表现出一些不良行为如产生幻觉hallucination所谓幻觉是指模型生成的输出在表面上看似合理但实际上与现实世界的事实或用户输入不一致内容显得不相关且无意义。研究者们越来越关注如何理解这种幻觉现象是如何产生的以及如何减少这种幻觉的生成。
最近的一项分析研究表明幻觉现象源于数据集中的多种问题Dziri et al. 2022可以分为两类 缺乏相关数据在训练数据中长尾知识即那些出现频率较低但种类繁多的知识普遍存在而LLMs在学习这类知识时容易学习不充分Kandpal et al., 2023。这意味着模型可能没有足够的数据来学习那些不常见但重要的信息导致在实际应用中生成与这些信息相关的幻觉。 数据重复在训练数据中完美地去重是非常困难的。训练数据集中的重复数据会明显损害模型的性能。Hernandez等人Hernandez et al., 2022发现仅通过重复10%的训练数据一个800M参数模型的性能可能会降低到400M参数模型的水平。当根据缩放定律检查模型的性能时发现训练数据中一定程度的重复率可能对模型性能产生不利影响。这种负面影响的原因可能是模型在处理这些重复数据时会倾向于记忆这些数据而不是学习如何泛化到新数据。 Scaling Laws也就是缩放定律或规模定律在人工智能和机器学习领域是指模型性能如何随着模型规模如参数数量、训练数据量和计算资源增加而提升的一组经验法则。缩放定律的核心思想是模型的性能与模型大小、数据集大小和计算量之间存在可预测的关系通常表现为幂律关系。 此外最近的研究发现幻觉也源于模型固有的某些限制。McKenna等人2023证明LLMs仍然依赖于句子级别的记忆和语料库级别的统计模式而不是稳健的推理。这一点通过他们对不同LLM家族在自然语言推理任务上的表现分析得到了证实。此外Wu等人2023揭示了LLMs在记忆和推理方面都不完美特别是在涉及本体论知识时。Berglund等人2023指出LLMs通常因为逻辑推理的困难而受到影响。LLMs往往对自己的输出过于自信并且难以精确识别事实知识的边界Ren等人2023年这意味着模型在处理信息时可能无法清晰地区分哪些信息是经过验证的事实哪些是未经证实的假设、虚构的内容或者是错误的信息。此外LLM倾向于选择共现词而不是事实答案这种现象通常被称为捷径或虚假相关Kang Choi2023年。 句子级别的记忆 这意味着模型在生成回答或文本时会记住它在训练数据中见过的具体句子或表达方式。模型可能会直接复制或模仿这些句子而不是真正理解句子的含义或上下文。 语料库级别的统计模式 这指的是模型会利用它在大量文本数据中观察到的统计规律比如某些词或短语经常一起出现。模型可能会根据这些统计上的共现关系来生成文本而不是基于深层次的逻辑推理。 同样另一种不期望的行为——阿谀奉承sycophancy现象也存在于LLMs中指的是模型可能会生成与用户观点一致而非事实的答案。最糟糕的是模型扩展和命令调整可能会增加这种行为Wei等人2023。
解决幻觉问题有几种方法如扩大规模。拥有5400亿参数的PaLM模型在多种任务上的表现急剧提升。尽管它也遭受学习长尾知识的困扰但其记忆能力被证明比小型模型更好Chowdhery等人2022年。在文本摘要任务中Ladhak等人2023表明使用更多的提取式微调数据集和适配器微调仅微调部分参数通常会产生较少的幻觉但不会改变幻觉的分布。
因此对于人工智能模型中的幻觉问题可以通过两种途径来减轻一种是从数据层面进行比如改进微调数据集和增加合成数据干预 (Wei et al., 2023a)另一种是从模型层面进行比如采用不同的优化方法。 4.2.3 不确定性量化Uncertainty Quantification
研究界对量化LLM预测的不确定性也越来越感兴趣以更好地理解这些大模型的可靠性和局限性。 多数关于不确定性量化的现有文献都集中在对数几率logits上这对于LLMs来说不太适用特别是对于封闭源模型。这就需要非logit基础的方法来引出LLMs的不确定性称为置信度引出Xiong et al. 2023。 对数几率logit是将概率值介于0和1之间映射到整个实数范围内的函数。它通常用于二分类问题中将概率值转换为对数几率值。 分类问题在二分类问题中对数几率函数常用于将线性模型的输出转换为概率预测。例如在逻辑回归中模型的输出线性组合通过Sigmoid函数转换为介于0和1之间的概率值。 有几种代表性的LLMs不确定性估计方法
首先基于一致性的不确定性估计涉及生成对问题的多个响应并使用这些响应之间的一致性来估计模型的置信度Xiong et al. 2023。具体来说它在答案生成过程中引入随机性自我一致性或向提示中添加误导性提示诱导一致性以产生不同的响应。响应越一致估计的置信度就越高。
其次LLMs可以通过提供直接和具体的响应来表达它们的置信度以表明对预测的高置信度并给出间接、模糊或模棱两可的响应以传达低置信度。LLMs可以明确声明一个百分比来量化它们的置信度水平。例如“我对这个答案只有20%的置信度”清楚地传达了低置信度Xiong et al. 2023。
第三可以从token级不确定性中聚合不确定性Duan et al. 2023。LLMs通过预测每个token来生成文本这可以被构建化为一个分类任务。token级不确定性方法根据其概率分布为每个预测token计算置信度分数。然后可以根据token级不确定性的聚合来估计整体不确定性。 4.3 利用解释Making Use of Explanations
在这一节中我们将讨论如何利用基于提示的大型语言模型LLMs的解释能力来提高语言模型的预测性能并使其能够应用于有益的领域。
4.3.1 改进LLMsImproving LLMs
这项研究探讨了LLMs在从有限示例中学习新任务时是否可以从解释中受益。具体来说它调查了为少数示例任务提供解释是否可以改善模型在这些任务上的性能Lampinen et al. 2022。
提供了两种形式的解释预答案解释pre-answer explanations和后答案解释post-answer explanations。预答案解释是在答案之前提供中间推理步骤作为解释而后答案解释则是在答案之后提供。
Wei等人2022提出了一种称为链式思考提示的方法该方法法在答案之前通过提示提供中间推理步骤作为解释这种方法帮助语言模型在算术、符号和常识推理任务中取得了好结果。另一项最近的研究在提示中提供答案后的解释Lampinen et al. 2022。实验分析表明提供解释可以提高大型语言模型在少量样本学习中的表现但提升程度取决于模型的规模和解释的质量。此外使用验证集为特定任务定制解释可以进一步提升它们的优势(Lampinen et al., 2022)。
最近的一项研究提出了一种名为“解释调整”的方法该方法使用更高级模型提供的详细逐步解释来训练较小的语言模型作为一种监督形式Mukherjee等人2023年。4.2.1节指出模仿调整主要让较小的模型学习大型模型的风格而不是推理过程。为了解决这个限制这项工作提出利用不仅仅是输入-输出对的更丰富的信号来教会较小的模型模仿大型基础模型如GPT-4的推理过程。
具体来说作者收集了由GPT-4生成的提示和详细解释性响应的训练数据。为了使GPT-4生成解释使用了诸如“你是一个乐于助人的助手总是提供解释。想象一下你正在回答一个五岁小孩的问题。”的系统指令。实验结果表明使用解释调整训练的模型在复杂的零样本推理基准测试如BigBench Hard上的表现超过了使用传统指令调整训练的模型。
从解释中获得的简介还可以用来压缩命令Yin et al. 2023。作者使用消融分析研究任务定义中不同类别内容的贡献。然后可以从消融分析中获得的结果用于压缩任务命令。以分类任务为例分析表明任务指令中最重要的组成部分是与标签相关的信息。移除其他内容只会略微影响分类性能只有在移除输出标签信息时模型性能才会大幅下降。此外他们提出了一种算法通过移除不必要的token自动压缩定义发现在保持或提高T5-XL模型在保留数据集上的性能的同时可以移除60%。
此外一些研究还深入研究了LLMs生成的解释在增强少量样本上下文学习中的有效性。对于涉及代码执行和算术运算的多步符号推理任务Nye等人2021发现纳入中间计算步骤可以显著提高模型的能力。另一方面当涉及到包括问答和自然语言推理在内的文本推理任务时只有text-davinci-002观察到准确性的提高。其他四个模型包括OPT、GPT-3davinci、InstructGPTtext-davinci-001和text-davinci-002没有显示出明显的改进甚至表现得更糟。LLMs生成的解释从两个维度进行评估事实性和一致性。结果揭示了LLMs可以生成不切实际的解释但仍然与预测一致这反过来导致了错误的预测Ye Durrett2022年。基于这一发现提出了一个解释优化模型以选择导致高性能的解释Ye Durrett2023年。因此提高模型预测的准确性需要LLMs生成可靠的解释这仍然是一个巨大的挑战。 4.3.2 下游应用Downstream Applications
可解释性也可以应用于教育、金融和医疗等现实世界问题。
例如可解释的零样本医学诊断是一个有趣的用例。最近的一项研究提出了一个框架用于使用视觉-语言模型如CLIP和LLMs如ChatGPT进行可解释的零样本医学图像分类Liu et al., 2023a。关键思想是利用ChatGPT自动生成疾病症状和视觉特征的详细文本描述而不仅仅是疾病名称。这些额外的文本信息有助于从CLIP提供更准确和可解释的诊断Radford et al., 2021。为了处理ChatGPT在医学上的潜在不准确性作者设计了提示以获得每个疾病类别的视觉可识别症状的高质量文本描述。在多个医学图像数据集上的广泛实验证明了这种无需训练的诊断流程的有效性和可解释性。 上篇
【文献精读笔记】Explainability for Large Language Models: A Survey 大语言模型的可解释性综述一_可解释推荐的大型语言模型指标独特句子比率 (usr)-CSDN博客
【文献精读笔记】Explainability for Large Language Models: A Survey 大语言模型的可解释性综述二-CSDN博客
【文献精读笔记】Explainability for Large Language Models: A Survey 大语言模型的可解释性综述三-CSDN博客
下篇
【文献精读笔记】Explainability for Large Language Models: A Survey 大语言模型的可解释性综述五-CSDN博客 文章转载自: http://www.morning.wwkft.cn.gov.cn.wwkft.cn http://www.morning.hyhzt.cn.gov.cn.hyhzt.cn http://www.morning.2d1bl5.cn.gov.cn.2d1bl5.cn http://www.morning.hgtr.cn.gov.cn.hgtr.cn http://www.morning.qqpg.cn.gov.cn.qqpg.cn http://www.morning.jydky.cn.gov.cn.jydky.cn http://www.morning.phxns.cn.gov.cn.phxns.cn http://www.morning.ysllp.cn.gov.cn.ysllp.cn http://www.morning.bpmnz.cn.gov.cn.bpmnz.cn http://www.morning.yrsg.cn.gov.cn.yrsg.cn http://www.morning.zrrgx.cn.gov.cn.zrrgx.cn http://www.morning.nqrlz.cn.gov.cn.nqrlz.cn http://www.morning.llgpk.cn.gov.cn.llgpk.cn http://www.morning.qwnqt.cn.gov.cn.qwnqt.cn http://www.morning.pwwdp.cn.gov.cn.pwwdp.cn http://www.morning.wbqt.cn.gov.cn.wbqt.cn http://www.morning.mwzt.cn.gov.cn.mwzt.cn http://www.morning.dkzwx.cn.gov.cn.dkzwx.cn http://www.morning.jjzjn.cn.gov.cn.jjzjn.cn http://www.morning.ylrxd.cn.gov.cn.ylrxd.cn http://www.morning.cctgww.cn.gov.cn.cctgww.cn http://www.morning.lxqkt.cn.gov.cn.lxqkt.cn http://www.morning.cznsq.cn.gov.cn.cznsq.cn http://www.morning.ykmkz.cn.gov.cn.ykmkz.cn http://www.morning.rptdz.cn.gov.cn.rptdz.cn http://www.morning.yfffg.cn.gov.cn.yfffg.cn http://www.morning.hmdyl.cn.gov.cn.hmdyl.cn http://www.morning.pcgjj.cn.gov.cn.pcgjj.cn http://www.morning.yqqxj1.cn.gov.cn.yqqxj1.cn http://www.morning.ptzf.cn.gov.cn.ptzf.cn http://www.morning.xymkm.cn.gov.cn.xymkm.cn http://www.morning.mxptg.cn.gov.cn.mxptg.cn http://www.morning.krwzy.cn.gov.cn.krwzy.cn http://www.morning.rlcqx.cn.gov.cn.rlcqx.cn http://www.morning.xzgbj.cn.gov.cn.xzgbj.cn http://www.morning.rxkq.cn.gov.cn.rxkq.cn http://www.morning.dhqg.cn.gov.cn.dhqg.cn http://www.morning.lrzst.cn.gov.cn.lrzst.cn http://www.morning.klpwl.cn.gov.cn.klpwl.cn http://www.morning.kdpal.cn.gov.cn.kdpal.cn http://www.morning.dmwbs.cn.gov.cn.dmwbs.cn http://www.morning.msbct.cn.gov.cn.msbct.cn http://www.morning.jsmyw.cn.gov.cn.jsmyw.cn http://www.morning.rbyz.cn.gov.cn.rbyz.cn http://www.morning.pnntx.cn.gov.cn.pnntx.cn http://www.morning.fkyrk.cn.gov.cn.fkyrk.cn http://www.morning.zrwlz.cn.gov.cn.zrwlz.cn http://www.morning.gcfrt.cn.gov.cn.gcfrt.cn http://www.morning.jqjnx.cn.gov.cn.jqjnx.cn http://www.morning.tcsdlbt.cn.gov.cn.tcsdlbt.cn http://www.morning.yzfrh.cn.gov.cn.yzfrh.cn http://www.morning.jwdys.cn.gov.cn.jwdys.cn http://www.morning.wxwall.com.gov.cn.wxwall.com http://www.morning.hdqqr.cn.gov.cn.hdqqr.cn http://www.morning.zlff.cn.gov.cn.zlff.cn http://www.morning.wdlg.cn.gov.cn.wdlg.cn http://www.morning.kjawz.cn.gov.cn.kjawz.cn http://www.morning.rlbfp.cn.gov.cn.rlbfp.cn http://www.morning.dwfzm.cn.gov.cn.dwfzm.cn http://www.morning.wmfny.cn.gov.cn.wmfny.cn http://www.morning.fpqsd.cn.gov.cn.fpqsd.cn http://www.morning.kzrbd.cn.gov.cn.kzrbd.cn http://www.morning.bnygf.cn.gov.cn.bnygf.cn http://www.morning.cttti.com.gov.cn.cttti.com http://www.morning.pghry.cn.gov.cn.pghry.cn http://www.morning.fcwb.cn.gov.cn.fcwb.cn http://www.morning.jcbmm.cn.gov.cn.jcbmm.cn http://www.morning.xzjsb.cn.gov.cn.xzjsb.cn http://www.morning.qxmys.cn.gov.cn.qxmys.cn http://www.morning.jcxyq.cn.gov.cn.jcxyq.cn http://www.morning.iuibhkd.cn.gov.cn.iuibhkd.cn http://www.morning.muzishu.com.gov.cn.muzishu.com http://www.morning.qmncj.cn.gov.cn.qmncj.cn http://www.morning.jwsrp.cn.gov.cn.jwsrp.cn http://www.morning.zxqqx.cn.gov.cn.zxqqx.cn http://www.morning.mwmxs.cn.gov.cn.mwmxs.cn http://www.morning.jbshh.cn.gov.cn.jbshh.cn http://www.morning.jjxxm.cn.gov.cn.jjxxm.cn http://www.morning.rykmf.cn.gov.cn.rykmf.cn http://www.morning.mpwgs.cn.gov.cn.mpwgs.cn