网站搭建协议,汽车网站建设制作费用,如何编写一个微信小程序,天元建设集团有限公司 李增启 电话1.接到需求之后的开发流程是什么#xff1f;
参考答案一 接到需求后的开发流程一般包括需求分析、设计、编码、测试和部署等步骤。首先#xff0c;对需求进行全面的分析#xff0c;明确需求的背景、目标和功能。然后#xff0c;根据需求进行系统设计#xff0c;包括数据库…1.接到需求之后的开发流程是什么
参考答案一 接到需求后的开发流程一般包括需求分析、设计、编码、测试和部署等步骤。首先对需求进行全面的分析明确需求的背景、目标和功能。然后根据需求进行系统设计包括数据库设计、架构设计和接口设计等。接下来根据设计进行编码编写高质量的代码。完成编码后进行测试包括单元测试、集成测试和系统测试等。最后根据测试结果进行修复和优化并进行部署上线。 参考答案二 - 需求讨论:与产品、业务 Confirm 需求,确定项目范围、功能点、关键指标等 - 技术方案设计:根据需求确定 overall architecture,设计采集、建模、计算流程 - 开发实现:按设计方案进行 Flume 采集管道、Hive 建模、Spark 计算流程的开发 - 测试验证:进行本地环境验证,以样本数据验证 ETL 流程正确性 - 上线部署:将开发环境下的任务生产环境部署上线,进行全量数据验证 - 交付文档:编写技术设计文档、数据字典、操作维护文档等交付给业务方 参考答案三 无
2.拦截器的编写思路是什么
参考答案一 拦截器的编写思路一般是通过实现特定的接口或继承特定的类来实现。拦截器可以拦截请求和响应对其进行处理或修改。编写拦截器时首先需要确定拦截的目标比如拦截请求还是响应或者拦截特定的URL路径。然后根据目标确定拦截器的触发时机比如在请求之前、之后或异常时触发。最后根据需求编写拦截器的具体逻辑可以对请求参数进行校验、权限验证、日志记录等操作。 参考答案二 - 继承抽象拦截器类,实现初始化、关闭方法 - 实现 interpolate 方法,在这里实现对事件体的处理逻辑 - 在 Flume 配置文件中配置拦截器,指定类型及参数 - 测试验证拦截器逻辑与预期是否一致 参考答案三 - 拦截器需要实现org.apache.flume.interceptor.Interceptor接口。 - 重写方法 - 将自定义的拦截器打jar包放入flume的lib文件 - 修改配置文件添加拦截器 拦截器可以修改或删除事件基于开发者在选择器中选择的任何条件。 拦截器采用了责任链模式多个拦截器可以按指定顺序拦截 一个拦截器返回的事件列表被传递给链中的下一个拦截器 如果一个拦截器需要删除事件它只需要在返回的事件集中不包含要删除的事件即可
3.从0到1怎么搭建数仓
参考答案一 搭建数仓的基本步骤包括需求分析、数据抽取、数据清洗、数据转换、数据加载和数据展示等。首先进行需求分析明确数仓的目标和功能。然后根据需求设计数据抽取策略从各个数据源中抽取数据。接下来进行数据清洗对抽取的数据进行去重、过滤、格式化等处理。然后进行数据转换将清洗后的数据进行加工、计算和整合生成目标数据。最后将转换后的数据加载到数仓中并通过数据展示工具进行数据可视化和报表展示。 参考答案二 - 选定数仓技术方案:确定使用HiveSpark等技术方案 - 定义数据集市层模型:确定数仓的逻辑模型,维度表、事实表结构 - 搭建数据采集:使用Flume等采集数据到HDFS - 搭建Hive框架:创建事实、维度表结构 - 编写ETL程序:利用Spark、Shell等加载、转换数据到Hive表 - 开发分析模型:使用Spark SQL、Presto等进行分析、建模 - 前端报表连接:使用Superset等可视化工具连接数仓 参考答案三 可以分为6个步骤业务探查、技术选型、规范制定、主题域划分、数仓分层、模型建设
业务探查 梳理公司业务系统业务关心的指标开发过的需求。技术选型 根据已有的数据选择技术平台及开发语言规范制定 分层设计规范、表命名规范、字段命名规范、层次调度规范、脚本开发规范主题域划分 可以按照业务系统、或者部门划分。如果按照业务系统划分两个业务系统的数据一样、可以合并为一个主题。上次您跟我交流时的业务跨主题域的问题如果主题划分好了是不会存在这种情况的如果跨主体域了就划分在某一个主题域就行。数仓分层 包括dwd,dim,dws的模型建设模型建设
4.采集方案如何设计并阐述其原因
参考答案一 采集方案的设计需要考虑数据源的类型、数据量、数据质量和实时性等因素。首先确定要采集的数据源可以是数据库、日志文件、API接口等。然后根据数据源的特点和需求确定采集方式比如定时采集、实时采集或增量采集。接下来设计数据采集的流程和逻辑包括数据抽取、数据清洗、数据转换和数据加载等步骤。最后根据采集方案的设计进行开发和测试并根据实际情况进行调整和优化。 参考答案二 - 数据源:确定需要采集的日志或数据库源 - 数据格式:源数据的存储格式如Json、Csv等 - 采集周期:需要全量还是增量,采集频率 - 数据过滤:根据业务需求进行过滤 - 幂等性:避免重复采集数据 - 容错性:采集过程中出现问题的恢复机制 参考答案三 技术选择FlumeKafkasqoopLogstashDataX
5.阐述在离线行为数据采集过程中碰到零点漂移问题怎么发现怎么解决的
参考答案一 在离线行为数据采集过程中零点漂移问题指的是数据采集的起始时间点或间隔时间发生了变化导致数据的时间窗口不准确。为了发现零点漂移问题可以通过监控数据的采集时间和数据的时间戳进行对比。如果发现采集时间和时间戳的差异较大可能存在零点漂移问题。解决零点漂移问题可以通过定期校准采集时间或使用更准确的时间源进行数据采集。 参考答案二 - 发现问题:统计采集数据的时间范围,例如出现1-3点的数据丢失 - 解决方法: 1)回填数据:重新采集丢失的时间范围数据 2)时间校正:使用时间戳插件修改时间 3)调整业务逻辑:比如注册时间取登录时间的第一天 参考答案三 第一天晚上11:59:59产生的数据可能会在第二天的0点左右收到,如果不处理就会当成第二天产生的数据,影响准确性,所以需要处理 如果日志数据用到flume;一般在flume中的source下又加了一个拦截器进行处理统一只使用日志数据的产生时间作为时间戳。
6.详细描述对于Json数据的入仓方案有哪些怎么落地
参考答案一 对于Json数据的入仓方案可以有多种选择比如使用ETL工具、编写自定义的脚本或使用数据集成平台等。其中ETL工具可以提供图形化的界面方便配置和管理数据的抽取、清洗和加载等步骤。自定义脚本可以根据需求编写特定的数据处理逻辑实现数据的解析、转换和加载。数据集成平台可以提供统一的接口和标准化的数据处理流程简化数据入仓的开发和管理。 参考答案二 - 直接Load: 使用JsonSerDe解析Json,加载到Hive表 - 预处理:使用Spark解析Json,处理为表格式后加载到Hive - 使用Hive JSON函数:使用get_json_object等函数解析 参考答案三
spark程序通过json工具解析并通过sparkSQL写入目标表HvieSQL提供GetJsonObject方法JsonSerDe
7.谈谈你对ETL方案的理解落地方案有哪些
参考答案一 ETL方案是指将数据从源系统抽取、清洗和转换后加载到目标系统的一种数据集成方案。落地方案可以有多种选择比如使用ETL工具、编写自定义的脚本或使用数据管道等。ETL工具可以提供图形化的界面方便配置和管理数据的抽取、清洗和加载等步骤。自定义脚本可以根据需求编写特定的数据处理逻辑实现数据的解析、转换和加载。数据管道可以提供可扩展和可靠的数据传输和处理能力支持多种数据源和目标系统的集成。 参考答案二 - ETL是Extract-Transform-Load的简称,用于数据仓库的构建维护 - Extract:从数据源抽取数据 - Transform:对数据进行转换、清洗等处理 - Load:将数据加载到数据仓库 落地使用Spark、Hive等进行数据转换,最后加载到Hive数据仓库。 参考答案三 ETL是将业务系统的数据经过抽取、清洗转换之后加载到数据仓库的过程目的是将企业中的分散、零乱、标准不统一的数据整合到一起为企业的决策提供分析依据。
通常的做法是从业务系统到ODS做清洗将脏数据和不完整数据过滤掉在从ODS到DW的过程中转换进行一些业务规则的计算和聚合。
ETL工具有FlumeKafkasqoopLogstashDataX
8.介绍一下离线项目中的数仓分层体系描述每层数据及其作用
参考答案一 离线项目中的数仓分层体系一般包括原始数据层、清洗数据层、加工数据层和应用数据层。原始数据层用于存储从各个数据源抽取的数据保留原始的数据结构和格式。清洗数据层对原始数据进行去重、过滤、格式化等处理提高数据质量。加工数据层对清洗后的数据进行加工、计算和整合生成目标数据。应用数据层提供面向用户的数据服务和报表展示满足业务需求。 参考答案二 - ODS层:操作数据存储层,原始数据 - DWD层:数据仓库层,清洗后数据 - DWS层:数据集市层,汇总加工数据 - ADS层:应用数据存储层,分析和报表的数据 参考答案三 1、贴源层ODS: ODS层主要存储原始数据一般都是来源于各个app的日志或者线下门店的表格txt文本等 2、明细层DWD基于原始数据层将数据进行简单的清洗、脱敏后处理后建立明细表明细表中一般也会有etl时间的字段业务不同字段也不相同 3、维度表DIM基于原始数据层提取公共指标进行维度建模实际上和明细层没有依赖关系主要是根据业务需求来定常见的有时间地区编码对应表所属机构编码对应表业务类型编码对应表等等后面想起来再补充 4、轻度聚合层DWS是基于明细层数据对明细层的数据进行轻度聚合得出所谓轻度聚合个人理解是提取业务核心字段根据业务需求对数据进行进一步的加工 5、主题层DWT根据主题提炼出相关指标从DWS中提取和维度表关联得出这个时候业务就要开始详细划分了一般都是许多小需求围绕一个核心需求作为主题—个人理解 6、数据中间层DWM对于一些跨部门协同会产生一些公共字段用DWM进行临时存储从而避免重复计算类似于咱们这边的模型层 7、结果展示层ADS基于需求从主题中提取相关字段得出用于结果展示咱们这边是把报送的数据导入到Oracle中进行展示只报送增量数据 分层优点 每一个数据分层都有它的作用域这样我们在使用表的时候能更方便地定位和理解。
方便数据血缘追踪 简单来说我们最终给业务呈现的是一个能直接使用业务表但是它的来源有很多如果有一张来源表出问题了我们希望能够快速准确地定位到问题并清楚它的危害范围。减少重复开发 规范数据分层开发一些通用的中间层数据能够减少极大的重复计算。把复杂问题简单化 将一个复杂的任务分解成多个步骤来完成每一层只处理单一的步骤比较简单和容易理解。而且便于维护数据的准确性当数据出现问题之后可以不用修复所有的数据只需要从有问题的步骤开始修复。屏蔽原始数据的异常: 屏蔽业务的影响不必改一次业务就需要重新接入数据
9.Hive on Spark 数据倾斜的处理方案
参考答案一 -数据倾斜的原因一般是数据分布不均匀可以通过调整数据分桶或分区的策略使数据均匀分布。 -可以对倾斜的数据进行采样然后将采样数据进行拆分或重组使数据均匀分布。 -可以使用Spark的优化功能比如动态分区、广播变量和缓存等提高任务执行的效率和性能。 参考答案二 - 优化数据分区,将热点数据分到不同分区 - 调整并发,热点数据分区调低并发 - 使用抽样、过滤等方式预处理热点数据 - 使用聚合、join等 参考答案三 在hive etl时进行数据聚合把key相同的数据聚合成一条数据这样就可能不用shuffle了从而解决数据倾斜。当没办法对key进行聚合时也可以选择其它粒度聚合比如数据中包含了几个城市几个职业可以选择合适的粒度聚合。 过滤导致倾斜的key如果业务允许某几个key的数据可以丢弃那么对于有两个key对应10万条数据而其它key都是几十条那么就可以过滤那两个key。 提高ruduce并行度从而使key更分散从而有可能解决数据倾斜 双重聚合法针对非join如groupByKeyreduceByKey 在每个key前加上一个随机数和一个分隔符比如“2”那么key对应的数量就比较均匀了然后做第一次reduce。把第一次聚合得到的RDD的前缀x去掉再进行一次聚合即可 reduce join转map join 其中一个RDD必须是比较小的broadcast出去那个小RDD的数据以后就会在每个executor的block manager中都驻留一份。 要确保你的内存足够存放那个小RDD中的数据这种方式下根本不会发生shuffle操作肯定也不会发生数据倾斜从根本上杜绝了join操作可能导致的数据倾斜的问题 对于join中有数据倾斜的情况大家尽量第一时间先考虑这种方式效果非常好如果某个RDD比较小的情况下。 对于join这种操作不光是考虑数据倾斜的问题即使是没有数据倾斜问题也完全可以优先考虑用我们讲的这种高级的reduce join转map join的技术不要用普通的join去通过shuffle进行数据的join完全可以通过简单的map使用map join的方式牺牲一点内存资源在可行的情况下优先这么使用。 可以先从要join的一个RDD中抽取10%的数据并从中得到数量最多的那个key然后从两个RDD中过滤出这个key的数据得当两个RDDrdd1和rdd2然后对两个RDD中的key加随机前缀如果rdd2的数据只有一个那么就用for多生成几个然后俩个RDD做join然后对那些非特殊的RDD进行join然后union两个结果。
10.Spark 跟 MR的区别
参考答案一 -Spark采用内存计算而MR采用磁盘计算因此Spark的计算速度更快。 -Spark支持更多的数据处理操作比如实时流处理、机器学习和图计算等而MR主要用于批处理。 -Spark的编程模型更简洁和灵活支持多种编程语言比如Scala、Java和Python而MR主要使用Java编程。 -Spark提供了更多的优化功能比如内存管理、数据分区和并行度控制等可以提高任务执行的效率和性能。 参考答案二 - Spark基于内存,MR基于磁盘,Spark计算速度更快 - Spark可以互动查询,MR是批处理 - Spark用DAG执行引擎,MR用MapReduce - Spark流批一体,MR只能批处理 - Spark基于内存,故难以处理超大数据,MR可以通过流式处理大数据 参考答案三
Spark基于内存MR基于磁盘因此Spark速度更快spark容错性高它通过弹性分布式数据集RDD来实现高效容错mapreduce的话容错可能只能重新计算了成本较高MR要基于Yarn来进行资源调度。Spark支持多种运行模式包括LocalStandaloneYarnMesos;Spark更加通用框架和生态也更加复杂。
11.Hive中常用的开窗函数并阐述其功能
参考答案一 Hive中常用的开窗函数包括ROW_NUMBER、RANK、DENSE_RANK、LAG和LEAD等。这些函数用于在查询结果中对数据进行分组、排序和统计等操作。比如ROW_NUMBER函数可以给每个分组的行分配一个唯一的序号RANK函数可以根据某个字段的值对分组的行进行排序LAG函数可以用于获取前一行的值LEAD函数可以用于获取后一行的值。这些函数可以方便地进行数据分析和统计。 参考答案二 - rank() 排序排序字段,相同数值并列,后续序号有空隙 - dense_rank() 排序排序字段,相同数值并列,后续序号无空隙 - row_number() 无序排序,按行号排列 - ntile() 把有序窗口的数据分为指定的组 参考答案三 窗口函数一般分为三类聚合型窗口函数和分析型窗口函数以及取值型窗口函数。
聚合型 sum 求和avg 求平均max 最大值min 最小值 分析型 RANK() 间断相同值同序号例如 1、2、2、2、5。DENSE_RANK() 不间断相同值同序号例如 1、2、2、2、3。ROW_NUMBER() 不间断序号不重复例如 1、2、3、4、52、3 可能是相同的值。 取值型 LAG(COL, N, DEFAULT_VAL) 往前第 N 行数据没有数据的话用 DEFAULT_VAL 代替。LEAD(COL, N, DEFAULT_VAL) 往后第 N 行数据没有数据的话用 DEFAULT_VAL 代替。FIRST_VALUE(EXPR) 分组内第一个值但是不是真正意义上的第一个而是截至到当前行的第一个。LAST_VALUE(EXPR) 分组内最后一个值但是不是真正意义上的最后一个而是截至到当前行的最后一个。
12.维度建模用的哪些模型你们具体是怎么使用的
参考答案一 维度建模常用的模型包括星型模型和雪花模型。在星型模型中一个事实表和多个维度表围绕着中心事实表形成星型的结构维度表和事实表之间通过外键进行关联。在雪花模型中维度表的结构更加复杂可以通过多级的关联形成雪花的结构。具体使用时根据业务需求和数据特点选择合适的模型并进行维度建模的设计和实现。 参考答案二 - 星型模型:事实表与维度表做连表查询 - 雪花模型:多层维度表连接查询加速 - 桥表:用于维度表的扩展,避免维度表数据爆炸 参考答案三
星型模型以事实表为中心所有的维度表直接连在事实表上简单存在冗余雪花模型雪花模式的维度表可以拥有其他的维度表去除了数据冗余更贴近业务尽可能降低数据存储量以及联合较小的维表来改善查询性能星座模型基于多张事实表而且共享维度信息即事实表之间可以共享某些维度表
13.阐述连续活跃区间表的作用及其使用场景并阐述利用这张表的意义是什么
参考答案一 连续活跃区间表是用于记录用户连续活跃时间段的一张表可以通过记录用户每次活跃的开始时间和结束时间来计算用户的连续活跃时间段。连续活跃区间表的作用是用于分析用户的活跃情况和用户行为的变化趋势。通过对连续活跃区间表的统计和分析可以了解用户的活跃度和留存情况并进行相应的业务决策和推荐策略的调整。 参考答案二 - 标识用户连续活跃的时间区间,可以用于用户流失、回流分析 - 一个区间范围代表一次用户活跃周期,区分新老用户按周期分层分析 参考答案三 无
14.新用户留存表应该如何设计为什么
参考答案一 新用户留存表设计时可以记录用户的注册时间、首次登录时间和最后登录时间等信息以及用户在注册后的一段时间内的活跃情况。可以通过设计合适的字段和指标来跟踪新用户的留存情况比如日留存率、周留存率和月留存率等。设计新用户留存表的目的是了解新用户的留存情况判断用户的粘性和产品的吸引力从而进行用户增长和产品改进的决策。 参考答案二 - 以注册日期作为维度,统计每个日期注册用户数作为指标 - 每日活跃数作为指标,连接留存日进行 grouping 分析留存率 - 设定时间窗口比如7日留存,滑动窗口分析不同留存区间的留存率 参考答案三 无
15.漏斗模型如何计算可以通过伪代码进行描述
参考答案一 漏斗模型用于计算用户在不同阶段的转化率。可以用伪代码描述漏斗模型的计算过程如下
定义变量A、B、C、D分别表示不同阶段的用户数量
A 原始用户数量
B 进入第二阶段的用户数量
C 进入第三阶段的用户数量
D 完成最终阶段的用户数量
转化率1 B / A
转化率2 C / B
转化率3 D / C根据漏斗模型的计算结果可以评估用户在不同阶段的转化情况找出转化率较低的环节并进行优化和改进。 参考答案二 1. 按时间顺序排列用户访问页面 2. 计算相邻页面流失用户数A,页面访问用户数B 3. 流失率A/B 4. 按流失率高低生成漏斗路径 参考答案三 漏斗模型是用来分析业务转化率的计算方法 具体业务路径为 浏览-添加购物车-提交订单-支付 比如提交订单的转换率 提交订单人数/添加购物车人数提交订单人数 本阶段/上阶段
16.什么是事件归因分析阐述其作用和计算方法
参考答案一 事件归因分析是一种分析用户行为和转化路径的方法通过追踪用户的行为事件了解不同事件对用户转化的贡献度和影响力。事件归因分析的作用是帮助理解用户行为和决策过程了解用户的兴趣和需求从而进行个性化推荐和精准营销。事件归因分析的计算方法可以通过统计用户在不同事件上的行为和转化情况并计算事件对转化的贡献度和影响力。可以通过多种算法和模型来实现事件归因分析比如基于规则的归因模型、基于时间窗口的归因模型和基于机器学习的归因模型等。 参考答案二
分析导致目标事件的驱动因素,通常应用于将注册归因于广告推广使用窗口函数统计注册前一段时间的广告曝光或点击数据进行多因素归因,建立回归模型计算各因素对注册的贡献度 参考答案三 归因分析从字面上看就是推测这个行为到底是哪些原因导致的。用来解决不同渠道、不同触点贡献度的问题首次触点归因待归因事件中最早发生的事被认为是导致业务结果的唯一因素末次触点归因待归因事件中最近发生的事被认为是导致业务结果的唯一因素线性归因待归因事件中每一个事件都被认为对业务结果产生了影响影响力平均分摊位置归因定义一个规则比如最早、最晚事件占40%影响力中间事件平摊影响力时间衰减归因越晚发生的待归因事件对业务结果的影响力越大 文章转载自: http://www.morning.fpkdd.cn.gov.cn.fpkdd.cn http://www.morning.bfgbz.cn.gov.cn.bfgbz.cn http://www.morning.xnltz.cn.gov.cn.xnltz.cn http://www.morning.blzrj.cn.gov.cn.blzrj.cn http://www.morning.zmqb.cn.gov.cn.zmqb.cn http://www.morning.qstjr.cn.gov.cn.qstjr.cn http://www.morning.wmrgp.cn.gov.cn.wmrgp.cn http://www.morning.dxxnq.cn.gov.cn.dxxnq.cn http://www.morning.tnzwm.cn.gov.cn.tnzwm.cn http://www.morning.ldgqh.cn.gov.cn.ldgqh.cn http://www.morning.ykkrg.cn.gov.cn.ykkrg.cn http://www.morning.gfqjf.cn.gov.cn.gfqjf.cn http://www.morning.xtdtt.cn.gov.cn.xtdtt.cn http://www.morning.dfrenti.com.gov.cn.dfrenti.com http://www.morning.beeice.com.gov.cn.beeice.com http://www.morning.ybmp.cn.gov.cn.ybmp.cn http://www.morning.dhqyh.cn.gov.cn.dhqyh.cn http://www.morning.dmsxd.cn.gov.cn.dmsxd.cn http://www.morning.ksgjy.cn.gov.cn.ksgjy.cn http://www.morning.wztlr.cn.gov.cn.wztlr.cn http://www.morning.lnbcx.cn.gov.cn.lnbcx.cn http://www.morning.ppqzb.cn.gov.cn.ppqzb.cn http://www.morning.thntp.cn.gov.cn.thntp.cn http://www.morning.ntzfj.cn.gov.cn.ntzfj.cn http://www.morning.smwlr.cn.gov.cn.smwlr.cn http://www.morning.nnjq.cn.gov.cn.nnjq.cn http://www.morning.nzlqt.cn.gov.cn.nzlqt.cn http://www.morning.bfycr.cn.gov.cn.bfycr.cn http://www.morning.mkrqh.cn.gov.cn.mkrqh.cn http://www.morning.swimstaracademy.cn.gov.cn.swimstaracademy.cn http://www.morning.zxqqx.cn.gov.cn.zxqqx.cn http://www.morning.nrcbx.cn.gov.cn.nrcbx.cn http://www.morning.qkdbz.cn.gov.cn.qkdbz.cn http://www.morning.tpnxr.cn.gov.cn.tpnxr.cn http://www.morning.zqkms.cn.gov.cn.zqkms.cn http://www.morning.xtrzh.cn.gov.cn.xtrzh.cn http://www.morning.fmswb.cn.gov.cn.fmswb.cn http://www.morning.pdtjj.cn.gov.cn.pdtjj.cn http://www.morning.knmby.cn.gov.cn.knmby.cn http://www.morning.dfckx.cn.gov.cn.dfckx.cn http://www.morning.rdng.cn.gov.cn.rdng.cn http://www.morning.mlhfr.cn.gov.cn.mlhfr.cn http://www.morning.qydgk.cn.gov.cn.qydgk.cn http://www.morning.fqyxb.cn.gov.cn.fqyxb.cn http://www.morning.kbfzp.cn.gov.cn.kbfzp.cn http://www.morning.rcbdn.cn.gov.cn.rcbdn.cn http://www.morning.lrybz.cn.gov.cn.lrybz.cn http://www.morning.joinyun.com.gov.cn.joinyun.com http://www.morning.drwpn.cn.gov.cn.drwpn.cn http://www.morning.ntwfr.cn.gov.cn.ntwfr.cn http://www.morning.ztjhz.cn.gov.cn.ztjhz.cn http://www.morning.pjftk.cn.gov.cn.pjftk.cn http://www.morning.fbmjw.cn.gov.cn.fbmjw.cn http://www.morning.lltdf.cn.gov.cn.lltdf.cn http://www.morning.duqianw.com.gov.cn.duqianw.com http://www.morning.lhygbh.com.gov.cn.lhygbh.com http://www.morning.pamdeer.com.gov.cn.pamdeer.com http://www.morning.mkhwx.cn.gov.cn.mkhwx.cn http://www.morning.rshs.cn.gov.cn.rshs.cn http://www.morning.rbrd.cn.gov.cn.rbrd.cn http://www.morning.rpwht.cn.gov.cn.rpwht.cn http://www.morning.wlxfj.cn.gov.cn.wlxfj.cn http://www.morning.ggnjq.cn.gov.cn.ggnjq.cn http://www.morning.lxfqc.cn.gov.cn.lxfqc.cn http://www.morning.rrwgh.cn.gov.cn.rrwgh.cn http://www.morning.qkxnw.cn.gov.cn.qkxnw.cn http://www.morning.qwfl.cn.gov.cn.qwfl.cn http://www.morning.wmcng.cn.gov.cn.wmcng.cn http://www.morning.qfgxk.cn.gov.cn.qfgxk.cn http://www.morning.jfgmx.cn.gov.cn.jfgmx.cn http://www.morning.sxwfx.cn.gov.cn.sxwfx.cn http://www.morning.wqpsf.cn.gov.cn.wqpsf.cn http://www.morning.rkck.cn.gov.cn.rkck.cn http://www.morning.yfmwg.cn.gov.cn.yfmwg.cn http://www.morning.3dcb8231.cn.gov.cn.3dcb8231.cn http://www.morning.fdxhk.cn.gov.cn.fdxhk.cn http://www.morning.kehejia.com.gov.cn.kehejia.com http://www.morning.tkrdg.cn.gov.cn.tkrdg.cn http://www.morning.qineryuyin.com.gov.cn.qineryuyin.com http://www.morning.rnqrl.cn.gov.cn.rnqrl.cn