海报设计模板网站,软件项目管理经典案例20篇,长泰建设局网站,酒店网站模板下载注#xff1a;由于上篇帖子#xff08;Python进阶--爬取下载人生格言(基于格言网的Python3爬虫)-CSDN博客#xff09;篇幅长度的限制#xff0c;此篇帖子对上篇做一个拓展延伸。
目录
一、爬取格言网中想要内容的url
1、找到想要的内容
2、抓包分析#xff0c;找到想… 注由于上篇帖子Python进阶--爬取下载人生格言(基于格言网的Python3爬虫)-CSDN博客篇幅长度的限制此篇帖子对上篇做一个拓展延伸。
目录
一、爬取格言网中想要内容的url
1、找到想要的内容
2、抓包分析找到想要内容的url
3、改写爬虫代码
二、输入想要的内容即可下载到本地
1、抓包分析
2、具备上一页和下一页的正常目录页下载内容代码
3、只具备下一页的非正常目录页下载内容代码
4、针对以上情况都适用的完整代码 一、爬取格言网中想要内容的url
1、找到想要的内容 在格言网中里面包含大量类型的格言、经典语录、句子、对联、成语等内容。上篇帖子仅仅只是爬取了人生格言这一部分如果想要爬取下载其他内容,只需要将上篇帖子的全部代码中的url方面的代码做一个修改即可爬取你想要的内容。 查看格言网的所有类型的内容步骤如下 1、打开格言网首页(http://www.mouxiao.com/) 2、往下翻找到栏目导航 3、此部分就是格言网所有类型的内容 注格言网中其他部分的内容都是此部分的子节点 2、抓包分析找到想要内容的url 根据上篇帖子抓包分析的方式在此处继续根据此方式进行抓包分析定位到想要内容的url。 此处定位到想要内容的url。开心
3、改写爬虫代码 思路将想要内容的url赋给上篇博客代码中的url部分即可
上篇帖子中的所有代码
import re
import requests
from lxml import etree
# 获取user-agent,用于身份识别
header {User-Agent: Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Mobile Safari/537.36}
# 1、获取具体格言内容和标题
# 封装成一个函数输入具体人生格言页的地址获取其具体的人生格言和标题
def get_content(url):# 请求当前网页的源代码r requests.get(url,headersheader)# 拒绝requests的自动编码保留源代码r.encoding r.apparent_encoding# 解析源代码提取具体格言内容和标题# 获取网页源代码html etree.HTML(r.text)# 获取格言内容content html.xpath(//div[classmaike]/p[classp]/text())# 使用 join() 方法将列表中的元素用换行符连接起来content \n.join(content)# 获取标题title html.xpath(//div[classmaike]/h1[classtitle_l]/text())[0]# 返回标题和内容return title,content
# 当前页面
index_url http://www.mouxiao.com/renshenggeyan/index.html
# 2、获取各种类型的人生格言链接并下载其具体人生格言内容和标题
# 输入当前人生格言的目录页地址获取各种类型的人生格言链接并下载其具体人生格言内容和标题
def pageupload_play(index_url):# 请求当前网页的源代码r requests.get(index_url,headersheader)# 由于requests模块会将获取的网页源代码进行自动编码此处我们不需要编码。# 故采用apparent_encoding方法禁止requests模块自动编码。r.encoding r.apparent_encoding# 采用xpath的方式定位获取链接所在位置html etree.HTML(r.text)links html.xpath(//ul[classreaders-list]//a/href)# 要匹配所有以数字开头后面跟 .html 的元素可以遍历列表matched_links []for link in links:# 采用正则表达式筛选出我们所需要的链接将其保存到matched_links中if re.findall(r^\d\.html, link):matched_links.append(link)# 遍历每个类型人生格言的具体人生格言内容和标题对其进行下载for link in matched_links:# link中获取的链接是相对地址需要补全前面的地址link1 http://www.mouxiao.com/renshenggeyan/link# 调用get_content方法下载内容和标题并保存到本地title, content get_content(link1)with open(f格言/{title}.txt,w,encodingutf-8) as f:f.write(\ttitle \n\n)f.write(content)print(f已下载...{title})
# 3、获取下一页的地址
# 封装成一个函数输入当前页面的url返回下一页的url
def get_nextpage(url):#请求当前网页的源代码r requests.get(url, headersheader)# 拒绝requests的自动编码保留源代码r.encoding r.apparent_encoding# 定位到下一页的url地址html etree.HTML(r.text)next_page html.xpath(//div[classmaike]//p[classp]//a/href)[3]# 因为所获取的下一页地址是相对地址故进行补全next_page http://www.mouxiao.com/renshenggeyan/ next_page# 如果下一页地址和当前页地址不相等则将下一页地址返回if next_page ! url:return next_page
# 4、将以上函数排放好顺序进行调用下载人生格言的全部内容及标题
n 1
while 1:print(f正在下载第{n}页...)print(下载地址为index_url)pageupload_play(index_url)page get_nextpage(index_url)index_url pageif index_urlNone:breakn1 此处以爬取励志格言为例只需要将上面部分代码中的url改为励志格言的url即可。
代码如下
import re
import requests
from lxml import etree
# 获取user-agent,用于身份识别
header {User-Agent: Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Mobile Safari/537.36}
# 1、获取具体格言内容和标题
# 封装成一个函数输入具体人生格言页的地址获取其具体的人生格言和标题
def get_content(url):# 请求当前网页的源代码r requests.get(url,headersheader)# 拒绝requests的自动编码保留源代码r.encoding r.apparent_encoding# 解析源代码提取具体格言内容和标题# 获取网页源代码html etree.HTML(r.text)# 获取格言内容content html.xpath(//div[classmaike]/p[classp]/text())# 使用 join() 方法将列表中的元素用换行符连接起来content \n.join(content)# 获取标题title html.xpath(//div[classmaike]/h1[classtitle_l]/text())[0]# 返回标题和内容return title,content
# 当前页面
index_url http://www.mouxiao.com/lizhimingyan/index.html
# 2、获取各种类型的人生格言链接并下载其具体人生格言内容和标题
# 输入当前人生格言的目录页地址获取各种类型的人生格言链接并下载其具体人生格言内容和标题
def pageupload_play(index_url):# 请求当前网页的源代码r requests.get(index_url,headersheader)# 由于requests模块会将获取的网页源代码进行自动编码此处我们不需要编码。# 故采用apparent_encoding方法禁止requests模块自动编码。r.encoding r.apparent_encoding# 采用xpath的方式定位获取链接所在位置html etree.HTML(r.text)links html.xpath(//ul[classreaders-list]//a/href)# 要匹配所有以数字开头后面跟 .html 的元素可以遍历列表matched_links []for link in links:# 采用正则表达式筛选出我们所需要的链接将其保存到matched_links中if re.findall(r^\d\.html, link):matched_links.append(link)# 遍历每个类型人生格言的具体人生格言内容和标题对其进行下载for link in matched_links:# link中获取的链接是相对地址需要补全前面的地址link1 http://www.mouxiao.com/lizhimingyan/link# 调用get_content方法下载内容和标题并保存到本地title, content get_content(link1)with open(f励志格言/{title}.txt,w,encodingutf-8) as f:f.write(\ttitle \n\n)f.write(content)print(f已下载...{title})
# 3、获取下一页的地址
# 封装成一个函数输入当前页面的url返回下一页的url
def get_nextpage(url):#请求当前网页的源代码r requests.get(url, headersheader)# 拒绝requests的自动编码保留源代码r.encoding r.apparent_encoding# 定位到下一页的url地址html etree.HTML(r.text)next_page html.xpath(//div[classmaike]//p[classp]//a/href)[3]# 因为所获取的下一页地址是相对地址故进行补全next_page http://www.mouxiao.com/lizhimingyan/ next_page# 如果下一页地址和当前页地址不相等则将下一页地址返回if next_page ! url:return next_page
# 4、将以上函数排放好顺序进行调用下载人生格言的全部内容及标题
n 1
while 1:print(f正在下载第{n}页...)print(下载地址为index_url)pageupload_play(index_url)page get_nextpage(index_url)index_url pageif index_urlNone:breakn1
二、输入想要的内容即可下载到本地
1、抓包分析 根据上面的抓包分析可知栏目导航部分内容的url如下图所示 根据以上情况可以分析得出: 栏目导航的链接地址是以下构造 http://www.mouxiao.com/{你想要的内容的中文拼音}
注好书推荐为book不为中文拼音haoshutuijian注/index.html或者/index-数字.html或者数字.html是属于子页节点它被包括在以上url的地址中。此处我们只要找到父页节点即可访问到其子页节点 思路想要通过输入想要的内容来下载则可以通过读取键盘消息来填充此部分内容的url。 点击栏目导航中所有部分的类型链接跳转到其目录页查看其目录页的布局情况。据此发现 如果要下载的某个内容的目录页只有下一页选项的情况其获取下一页的所在源代码的链接位置有所改变获取下一页的链接地址的代码需要做相应修改。 正常的网页应具备上一页和下一页这样下一页的url位置不会改变可以适用上篇帖子获取下一页的函数代码 2、具备上一页和下一页的正常目录页下载内容代码 具备上一页和下一页的正常目录页下载的代码为
import os
import re
import requests
from lxml import etree
# 获取user-agent,用于身份识别
header {User-Agent: Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Mobile Safari/537.36}
# 1、获取具体格言内容和标题
# 封装成一个函数输入具体人生格言页的地址获取其具体的人生格言和标题
def get_content(url):# 请求当前网页的源代码r requests.get(url,headersheader)# 拒绝requests的自动编码保留源代码r.encoding r.apparent_encoding# 解析源代码提取具体格言内容和标题# 获取网页源代码html etree.HTML(r.text)# 获取格言内容content html.xpath(//div[classmaike]/p[classp]/text())# 使用 join() 方法将列表中的元素用换行符连接起来content \n.join(content)# 获取标题title html.xpath(//div[classmaike]/h1[classtitle_l]/text())[0]# 返回标题和内容return title,content
# 当前页面
keyword input(情输入你想要的内容(拼音))
index_url fhttp://www.mouxiao.com/{keyword}
regular_part fhttp://www.mouxiao.com/{keyword}/
dictionary f../{keyword}
os.makedirs(dictionary, exist_okTrue)
# 2、获取各种类型的人生格言链接并下载其具体人生格言内容和标题
# 输入当前人生格言的目录页地址获取各种类型的人生格言链接并下载其具体人生格言内容和标题
def pageupload_play(index_url):# 请求当前网页的源代码r requests.get(index_url,headersheader)# 由于requests模块会将获取的网页源代码进行自动编码此处我们不需要编码。# 故采用apparent_encoding方法禁止requests模块自动编码。r.encoding r.apparent_encoding# 采用xpath的方式定位获取链接所在位置html etree.HTML(r.text)links html.xpath(//ul[classreaders-list]//a/href)# 要匹配所有以数字开头后面跟 .html 的元素可以遍历列表matched_links []for link in links:# 采用正则表达式筛选出我们所需要的链接将其保存到matched_links中if re.findall(r^\d\.html, link):matched_links.append(link)# 遍历每个类型人生格言的具体人生格言内容和标题对其进行下载for link in matched_links:# link中获取的链接是相对地址需要补全前面的地址link1 regular_partlink# 调用get_content方法下载内容和标题并保存到本地title, content get_content(link1)with open(f../{keyword}/{title}.txt,w,encodingutf-8) as f:f.write(\ttitle \n\n)f.write(content)print(f已下载...{title})
# 3、获取下一页的地址
# 封装成一个函数输入当前页面的url返回下一页的url
def get_nextpage(url):#请求当前网页的源代码r requests.get(url, headersheader)# 拒绝requests的自动编码保留源代码r.encoding r.apparent_encoding# 定位到下一页的url地址html etree.HTML(r.text)next_page html.xpath(//div[classmaike]//p[classp]//a/href)[3]# 因为所获取的下一页地址是相对地址故进行补全next_page regular_part next_page# 如果下一页地址和当前页地址不相等则将下一页地址返回if next_page ! url:return next_page
# 4、将以上函数排放好顺序进行调用下载人生格言的全部内容及标题
n 1
while 1:print(f正在下载第{n}页...)print(下载地址为index_url)pageupload_play(index_url)page get_nextpage(index_url)index_url pageif index_urlNone:breakn1 输入你想要的内容即可下载获得
3、只具备下一页的非正常目录页下载内容代码 这种情况下下一页所在的源代码的url位置发生了变化抓包分析出此时下一页url所在位置修改这部分代码即可。 注 在调试的时候发现这种情况下在处于最后一页时没有下一页的选项反而出现上一页的选项且上一页选项的链接所在源代码的位置与下一页选项的链接所在源代码的位置一致。 在正常页面中处于最后一页时上一页和下一页选项仍然出现且链接所在位置都没有发生改变下一页的链接地址与当前页面的链接地址一致。 基于以上情况返回下一页url时需要使用不同的条件。 代码如下
import os
import re
import requests
from lxml import etree
# 获取user-agent,用于身份识别
header {User-Agent: Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Mobile Safari/537.36}
# 1、获取具体格言内容和标题
# 封装成一个函数输入具体人生格言页的地址获取其具体的人生格言和标题
def get_content(url):# 请求当前网页的源代码r requests.get(url,headersheader)# 拒绝requests的自动编码保留源代码r.encoding r.apparent_encoding# 解析源代码提取具体格言内容和标题# 获取网页源代码html etree.HTML(r.text)# 获取格言内容content html.xpath(//div[classmaike]/p[classp]/text())# 使用 join() 方法将列表中的元素用换行符连接起来content \n.join(content)# 获取标题title html.xpath(//div[classmaike]/h1[classtitle_l]/text())[0]# 返回标题和内容return title,content
# 当前页面
keyword input(情输入你想要的内容(拼音))
index_url fhttp://www.mouxiao.com/{keyword}
regular_part fhttp://www.mouxiao.com/{keyword}/
dictionary f../{keyword}
os.makedirs(dictionary, exist_okTrue)
# 2、获取各种类型的人生格言链接并下载其具体人生格言内容和标题
# 输入当前人生格言的目录页地址获取各种类型的人生格言链接并下载其具体人生格言内容和标题
def pageupload_play(index_url):# 请求当前网页的源代码r requests.get(index_url,headersheader)# 由于requests模块会将获取的网页源代码进行自动编码此处我们不需要编码。# 故采用apparent_encoding方法禁止requests模块自动编码。r.encoding r.apparent_encoding# 采用xpath的方式定位获取链接所在位置html etree.HTML(r.text)links html.xpath(//ul[classreaders-list]//a/href)# 要匹配所有以数字开头后面跟 .html 的元素可以遍历列表matched_links []for link in links:# 采用正则表达式筛选出我们所需要的链接将其保存到matched_links中if re.findall(r^\d\.html, link):matched_links.append(link)# 遍历每个类型人生格言的具体人生格言内容和标题对其进行下载for link in matched_links:# link中获取的链接是相对地址需要补全前面的地址link1 regular_partlink# 调用get_content方法下载内容和标题并保存到本地title, content get_content(link1)with open(f../{keyword}/{title}.txt,w,encodingutf-8) as f:f.write(\ttitle \n\n)f.write(content)print(f已下载...{title})
# 3、获取下一页的地址
# 封装成一个函数输入当前页面的url返回下一页的url
def get_nextpage(url):#请求当前网页的源代码r requests.get(url, headersheader)# 拒绝requests的自动编码保留源代码r.encoding r.apparent_encoding# 定位到下一页的url地址html etree.HTML(r.text)next_page html.xpath(//div[classmaike]//p[classp]//a[text()下一页]/href)if len(next_page)0:return# 因为所获取的下一页地址是相对地址故进行补全next_page regular_part .join(next_page)return next_page# 如果下一页地址和当前页地址不相等则将下一页地址返回
# 4、将以上函数排放好顺序进行调用下载人生格言的全部内容及标题
n 1
while 1:print(f正在下载第{n}页...)print(下载地址为index_url)pageupload_play(index_url)page get_nextpage(index_url)index_url pageif index_urlNone:breakn1
4、针对以上情况都适用的完整代码 将以上两种情况用if语句做一个判断即可。完整代码如下
import os
import re
import requests
from lxml import etree
# 获取user-agent,用于身份识别
header {User-Agent: Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Mobile Safari/537.36}
# 1、获取具体格言内容和标题
# 封装成一个函数输入具体人生格言页的地址获取其具体的人生格言和标题
def get_content(url):# 请求当前网页的源代码r requests.get(url,headersheader)# 拒绝requests的自动编码保留源代码r.encoding r.apparent_encoding# 解析源代码提取具体格言内容和标题# 获取网页源代码html etree.HTML(r.text)# 获取格言内容content html.xpath(//div[classmaike]/p[classp]/text())# 使用 join() 方法将列表中的元素用换行符连接起来content \n.join(content)# 获取标题title html.xpath(//div[classmaike]/h1[classtitle_l]/text())[0]# 返回标题和内容return title,content
# 当前页面
keyword input(情输入你想要的内容(拼音))
index_url fhttp://www.mouxiao.com/{keyword}
regular_part fhttp://www.mouxiao.com/{keyword}/
dictionary f../{keyword}
os.makedirs(dictionary, exist_okTrue)
# 2、获取各种类型的人生格言链接并下载其具体人生格言内容和标题
# 输入当前人生格言的目录页地址获取各种类型的人生格言链接并下载其具体人生格言内容和标题
def pageupload_play(index_url):# 请求当前网页的源代码r requests.get(index_url,headersheader)# 由于requests模块会将获取的网页源代码进行自动编码此处我们不需要编码。# 故采用apparent_encoding方法禁止requests模块自动编码。r.encoding r.apparent_encoding# 采用xpath的方式定位获取链接所在位置html etree.HTML(r.text)links html.xpath(//ul[classreaders-list]//a/href)# 要匹配所有以数字开头后面跟 .html 的元素可以遍历列表matched_links []for link in links:# 采用正则表达式筛选出我们所需要的链接将其保存到matched_links中if re.findall(r^\d\.html, link):matched_links.append(link)# 遍历每个类型人生格言的具体人生格言内容和标题对其进行下载for link in matched_links:# link中获取的链接是相对地址需要补全前面的地址link1 regular_partlink# 调用get_content方法下载内容和标题并保存到本地title, content get_content(link1)with open(f../{keyword}/{title}.txt,w,encodingutf-8) as f:f.write(\ttitle \n\n)f.write(content)print(f已下载...{title})
# 3、获取下一页的地址
# 封装成一个函数输入当前页面的url返回下一页的url
def get_nextpage(url):#请求当前网页的源代码r requests.get(url, headersheader)# 拒绝requests的自动编码保留源代码r.encoding r.apparent_encoding# 定位到下一页的url地址html etree.HTML(r.text)next_page html.xpath(//div[classmaike]//p[classp]//a/href)# 如果是具有上一页和下一页的正常目录页面if len(next_page) 2:next_page next_page[3]next_page regular_part next_pageif next_page ! url:return next_page# 如果只有下一页的目录页面else:next_page html.xpath(//div[classmaike]//p[classp]//a[text()下一页]/href)if len(next_page)0:returnnext_page regular_part .join(next_page)return next_page
n 1
while 1:print(f正在下载第{n}页...)print(下载地址为index_url)pageupload_play(index_url)page get_nextpage(index_url)index_url pageif index_urlNone:breakn1 运行以上代码需要注意的地方 造句大全和成语大全需要输入的是zaoju和fanwen。而不是zaojudaquan和chengyudaquan 英语角和道德经的目录页布局跟其他内容的目录页布局不同内容和所在标签都不是跟以上情况处于网页源代码的相同位置。如果需要爬取则需根据上篇贴子进行抓包分析修改其相应代码即可。书评的页面布局与以上布局类似但所有的内容在网页源代码的的位置与以上情况有所不同。如果需要爬取需要抓包分析修改其xpath所定位到的部分。 注本帖只用于学习交流禁止商用 文章转载自: http://www.morning.xckqs.cn.gov.cn.xckqs.cn http://www.morning.ppbrq.cn.gov.cn.ppbrq.cn http://www.morning.pbsqr.cn.gov.cn.pbsqr.cn http://www.morning.tsnmt.cn.gov.cn.tsnmt.cn http://www.morning.rcbdn.cn.gov.cn.rcbdn.cn http://www.morning.hwnnm.cn.gov.cn.hwnnm.cn http://www.morning.rbsxf.cn.gov.cn.rbsxf.cn http://www.morning.jcpq.cn.gov.cn.jcpq.cn http://www.morning.rhkgz.cn.gov.cn.rhkgz.cn http://www.morning.hksxq.cn.gov.cn.hksxq.cn http://www.morning.cjqqj.cn.gov.cn.cjqqj.cn http://www.morning.zfkxj.cn.gov.cn.zfkxj.cn http://www.morning.xkpjl.cn.gov.cn.xkpjl.cn http://www.morning.qtryb.cn.gov.cn.qtryb.cn http://www.morning.rtzd.cn.gov.cn.rtzd.cn http://www.morning.qtyfb.cn.gov.cn.qtyfb.cn http://www.morning.rgpbk.cn.gov.cn.rgpbk.cn http://www.morning.mwbqk.cn.gov.cn.mwbqk.cn http://www.morning.rnkq.cn.gov.cn.rnkq.cn http://www.morning.shnqh.cn.gov.cn.shnqh.cn http://www.morning.lfbsd.cn.gov.cn.lfbsd.cn http://www.morning.ybhrb.cn.gov.cn.ybhrb.cn http://www.morning.ytbr.cn.gov.cn.ytbr.cn http://www.morning.ylyzk.cn.gov.cn.ylyzk.cn http://www.morning.hpkgm.cn.gov.cn.hpkgm.cn http://www.morning.qhfdl.cn.gov.cn.qhfdl.cn http://www.morning.bpzw.cn.gov.cn.bpzw.cn http://www.morning.nlmm.cn.gov.cn.nlmm.cn http://www.morning.sbdqy.cn.gov.cn.sbdqy.cn http://www.morning.qtkdn.cn.gov.cn.qtkdn.cn http://www.morning.smcfk.cn.gov.cn.smcfk.cn http://www.morning.ctqbc.cn.gov.cn.ctqbc.cn http://www.morning.sfswj.cn.gov.cn.sfswj.cn http://www.morning.wpcfh.cn.gov.cn.wpcfh.cn http://www.morning.drkk.cn.gov.cn.drkk.cn http://www.morning.rcmcw.cn.gov.cn.rcmcw.cn http://www.morning.qxltp.cn.gov.cn.qxltp.cn http://www.morning.dblfl.cn.gov.cn.dblfl.cn http://www.morning.blqmn.cn.gov.cn.blqmn.cn http://www.morning.ndfwh.cn.gov.cn.ndfwh.cn http://www.morning.nzqqd.cn.gov.cn.nzqqd.cn http://www.morning.glwyn.cn.gov.cn.glwyn.cn http://www.morning.jrkzk.cn.gov.cn.jrkzk.cn http://www.morning.zqzhd.cn.gov.cn.zqzhd.cn http://www.morning.rdlrm.cn.gov.cn.rdlrm.cn http://www.morning.ngcw.cn.gov.cn.ngcw.cn http://www.morning.nsrtvu.com.gov.cn.nsrtvu.com http://www.morning.jbblf.cn.gov.cn.jbblf.cn http://www.morning.zlzpz.cn.gov.cn.zlzpz.cn http://www.morning.cwwts.cn.gov.cn.cwwts.cn http://www.morning.wjmb.cn.gov.cn.wjmb.cn http://www.morning.yszrk.cn.gov.cn.yszrk.cn http://www.morning.sjpht.cn.gov.cn.sjpht.cn http://www.morning.nqlx.cn.gov.cn.nqlx.cn http://www.morning.qblcm.cn.gov.cn.qblcm.cn http://www.morning.bszmy.cn.gov.cn.bszmy.cn http://www.morning.gjtdp.cn.gov.cn.gjtdp.cn http://www.morning.qqfcf.cn.gov.cn.qqfcf.cn http://www.morning.jrksk.cn.gov.cn.jrksk.cn http://www.morning.nhgfz.cn.gov.cn.nhgfz.cn http://www.morning.tqldj.cn.gov.cn.tqldj.cn http://www.morning.glbnc.cn.gov.cn.glbnc.cn http://www.morning.mpsnb.cn.gov.cn.mpsnb.cn http://www.morning.xdjwh.cn.gov.cn.xdjwh.cn http://www.morning.chbcj.cn.gov.cn.chbcj.cn http://www.morning.nzklw.cn.gov.cn.nzklw.cn http://www.morning.ghccq.cn.gov.cn.ghccq.cn http://www.morning.ggqcg.cn.gov.cn.ggqcg.cn http://www.morning.gsrh.cn.gov.cn.gsrh.cn http://www.morning.jfwrf.cn.gov.cn.jfwrf.cn http://www.morning.jhzct.cn.gov.cn.jhzct.cn http://www.morning.jhwwr.cn.gov.cn.jhwwr.cn http://www.morning.ztqj.cn.gov.cn.ztqj.cn http://www.morning.mwpcp.cn.gov.cn.mwpcp.cn http://www.morning.c7625.cn.gov.cn.c7625.cn http://www.morning.shuangxizhongxin.cn.gov.cn.shuangxizhongxin.cn http://www.morning.lcjw.cn.gov.cn.lcjw.cn http://www.morning.jtdrz.cn.gov.cn.jtdrz.cn http://www.morning.xyjlh.cn.gov.cn.xyjlh.cn http://www.morning.kqblk.cn.gov.cn.kqblk.cn