当前位置: 首页 > news >正文

吉安县规划建设局网站网络设计师学什么专业

吉安县规划建设局网站,网络设计师学什么专业,工程项目流程八个阶段,商业网站建设案例目录 1 一个爬图片pic的代码的例子 1.1 学习的原文章 1.2 原始代码的问题总结 问题1 问题2 问题3 其他问题 1.3 原始代码 2 直接在cmd里 python运行报错 和 处理 2.1 运行报错 2.2 报错原因#xff1a; 没有提前安装这个bs4 模块 2.3 如何提前知道我的python环境… 目录 1 一个爬图片pic的代码的例子 1.1 学习的原文章 1.2 原始代码的问题总结 问题1 问题2 问题3 其他问题 1.3 原始代码 2  直接在cmd里 python运行报错 和 处理 2.1 运行报错 2.2 报错原因 没有提前安装这个bs4  模块 2.3 如何提前知道我的python环境下有没有安装bs4 或其他模块呢 2.3.1 查看所有python版本的命令 2.3.2 pip list 列表显示 2.3.3 pip show 模块 命令 2.3.4 pip 的其他常用命令详细了解一下 2.3.5 不太好用的命令 2.3.6  安装好 bs4后问题可以解决 3 如果选择在anaconda下 使用 bs4 (BeautifulSoup) 3.1 anaconda下运行python跑这个脚本 3.2 遇到报错1ImportError: cannot import name beautifulsoup from bs4 要注意BeautifulSoup  必须 首字母大写 beautifulsoup会导致报错 3.3 排除上面的报错后运行后为空的问题 3.4 增加其他状态码查找原因 3.5 尝试加headers伪装下看看OK了 3.5.1 加了headers可以正常访问了 3.5.2 把输出的内容修改为 规范输出 4 翻页处理 4.1 翻页和网页url 变化 4.2 从查找单页----变成查看并下载多页的pic 4.3 改进代码存储到自己设定文件夹 发现问题所在 4.4  修正只能下载第1页图片的问题 4.5 优化代码 本地路径用变量存起来多次运行重复下载图片问题 5 再就是过程中遇到的报错和改正方法 5.1 字符串 连接错误 TypeError: can only concatenate str (not “int“) to str 5.2 字符串 连接错误 SyntaxError: unterminated string literal 5.3 意外缩进  IndentationError: unexpected indent 5.4 语法错误 SyntaxError: 5.5 拼写错误 AttributeError: NameError: 等等 1 一个爬图片pic的代码的例子 1.1 学习的原文章 本文是根据这个文章基础上进行学习的但是学习过程中发现不少问题下面就是遇到的问题和解决问题的过程 https://cloud.tencent.com/developer/article/1706288前面我们一起完成了一个数据清洗的实战教程。现在我们一起来学习数据采集的相关知识。https://cloud.tencent.com/developer/article/1706288 1.2 原始代码的问题总结 问题1 from bs4 import beautifulsoup    # 应该大写 BeautifulSoup 问题2 不应该随便吧文件pic下载在 默认的 系统用户的文件夹而应该指定自己文件夹位置#存哪儿呢当前目录 #居然给存到这来了  C:\Users\Administrator\picture 这里是os的根目录if not os.path.exists(rpicture):    os.mkdir(rpicture)     而应该指定自己文件夹位置并且我感觉最好每页单独一个文件夹修改为if not os.path.exists(rE:\work\FangCloudV2\personal_space\2learn\python3\picture\pagestr(page)):    问题3 urlhttps://movie.douban.com/celebrity/1315477/photos/?typeCstart{}sortbylikesizeasubtypea 这里不应该是 {}而应该是用参数 s% 代替urlhttps://movie.douban.com/celebrity/1315477/photos/?typeCstart%ssortbylikesizeasubtypea %i 其他问题 小问题应该从page1 开始我自己遇到很多BUG语法不熟悉了一些新的内容还只会照着写需要学习下 1.3 原始代码 下面这段是爬一些图片pic的代码最近学写了一段bs的代码里面用到了bs但是运行起来磕磕碰碰各种报错 #E:\work\FangCloudV2\personal_space\2learn\python3\py0001.txtimport requests from bs4 import beautifulsoup # 应该大写 BeautifulSoupurlhttps://movie.douban.com/celebrity/1315477/photos/ resrequests.get(url) content BeautifulSoup(res.text, html.parser) datacontent.find_all(div,attrs{class:cover}) picture_list[]for d in data:plistd.find(img)[src]picture_list.append(plist) print (picture_list) 万茜 Qian Wan 图片万茜最新图片https://movie.douban.com/celebrity/1315477/photos/ 2  直接在cmd里 python运行报错 和 处理 2.1 运行报错 运行cmdpython 文件 报错报错内容  ModuleNotFoundError: No module named bs4 2.2 报错原因 没有提前安装这个bs4  模块 这个报错的原因是因为在默认的python目录下并没有安装 bs4 BeautifulSoup这个模块无法导入当然会报错但是如果是以下情况就不会遇到这个报错 如果是先在默认python下安装了 bs4 就不会遇到这种报错如果是直接使用 anaconda环境下的 cmd 或者 spygt ,pythoncharm 运行python就一般不会因为anaconda里预装了bs4 2.3 如何提前知道我的python环境下有没有安装bs4 或其他模块呢 接下来的问题就是因为使用的电脑环境并不一定是自己安装的环境也可能很久后忘记了我是否可以在安装前知道已经安装了 bs4?同样我想知道是否已经安装过 pip ,requeset 等其他模块这些模块装在哪儿呢 2.3.1 查看所有python版本的命令 py -0p可以查看电脑中所有的 python版本其中* 号是默认的版本我这里显示1个是默认的一个 anaconda里的但是查看的是python的版本号等 2.3.2 pip list 列表显示 pip listpip list --formatcolumns可以查看pip下的已有各种模块而这个pip list 显示的各个模块实际对应硬盘上的哪个路径呢--PC上可以实际找一下可以对应上这个文件夹Python311\site-packages\Python37_64\Lib\site-packages\pip\_vendorC:\Program Files (x86)\Microsoft Visual Studio\Shared\Python37_64\Lib\site-packages\pip\_vendor \Python37_64\Lib\site-packages\pip\_vendor 2.3.3 pip show 模块 命令 pip show pippip show requests显示详细信息 name ,  version 安装位置等如果是没有安装的模块就会找不到比如这里的 bs4 就显示not found 2.3.4 pip 的其他常用命令详细了解一下 从上面看出, pip 有很多命令是很有用很方便的那么详细了解一下 pip  --help     # 可以查看帮助全部命令pip helppip --version列表pip list pip list -0查看pip show XXX模块pip search XXX安装等pip installpip install --upgrade XXXpip uninstall Commands: install                     Install packages.  download                    Download packages.  uninstall                   Uninstall packages.  freeze                      Output installed packages in requirements format.  inspect                     Inspect the python environment.  list                        List installed packages.  show                        Show information about installed packages.  check                       Verify installed packages have compatible dependencies.  config                      Manage local and global configuration.  search                      Search PyPI for packages.  cache                       Inspect and manage pips wheel cache.  index                       Inspect information available from package indexes.  wheel                       Build wheels from your requirements.  hash                        Compute hashes of package archives.  completion                  A helper command used for command completion.  debug                       Show information useful for debugging.  help                        Show help for commands. General Options: -h, --help                  Show help.  --debug                     Let unhandled exceptions propagate outside the main subroutine, instead of logging them                              to stderr.  --isolated                  Run pip in an isolated mode, ignoring environment variables and user configuration.  --require-virtualenv        Allow pip to only run in a virtual environment; exit with an error otherwise.  --python python           Run pip with the specified Python interpreter.  -v, --verbose               Give more output. Option is additive, and can be used up to 3 times.  -V, --version               Show version and exit.  -q, --quiet                 Give less output. Option is additive, and can be used up to 3 times (corresponding to                              WARNING, ERROR, and CRITICAL logging levels).  --log path                Path to a verbose appending log.  --no-input                  Disable prompting for input.  --keyring-provider keyring_provider                              Enable the credential lookup via the keyring library if user input is allowed. Specify                              which mechanism to use [disabled, import, subprocess]. (default: disabled)  --proxy proxy             Specify a proxy in the form scheme://[user:passwd]proxy.server:port.  --retries retries         Maximum number of retries each connection should attempt (default 5 times).  --timeout sec             Set the socket timeout (default 15 seconds).  --exists-action action    Default action when a path already exists: (s)witch, (i)gnore, (w)ipe, (b)ackup,                              (a)bort.  --trusted-host hostname   Mark this host or host:port pair as trusted, even though it does not have valid or any                              HTTPS.  --cert path               Path to PEM-encoded CA certificate bundle. If provided, overrides the default. See SSL                              Certificate Verification in pip documentation for more information.  --client-cert path        Path to SSL client certificate, a single file containing the private key and the                              certificate in PEM format.  --cache-dir dir           Store the cache data in dir.  --no-cache-dir              Disable the cache.  --disable-pip-version-check                              Dont periodically check PyPI to determine whether a new version of pip is available for                              download. Implied with --no-index.  --no-color                  Suppress colored output.  --no-python-version-warning                              Silence deprecation warnings for upcoming unsupported Pythons.  --use-feature feature     Enable new functionality, that may be backward incompatible.  --use-deprecated feature  Enable deprecated functionality, that will be removed in the future. 2.3.5 不太好用的命令 python -m site显示的是 py3.7这一层目录的文件夹目录位置C:\Program Files (x86)\Microsoft Visual Studio\Shared\Python37_64而不是pip 下安装模块的文件夹目录位置C:\Program Files (x86)\Microsoft Visual Studio\Shared\Python37_64\Lib\site-packages\pip\_vendor 2.3.6  安装好 bs4后问题可以解决 3 如果选择在anaconda下 使用 bs4 (BeautifulSoup) 3.1 anaconda下运行python跑这个脚本 我没有继续在python 默认路径下安装bs4而是选择在 anaconda下运行cmd因为这里是已经安装了 bs4的不会因为找不到bs4模块而报错 可以找到BS4已经安装了 可以在这里运行python 注意这里是在 anaconda下启动的 cmd 3.2 遇到报错1ImportError: cannot import name beautifulsoup from bs4 要注意BeautifulSoup  必须 首字母大写 beautifulsoup会导致报错 ImportError: cannot import name beautifulsoup from bs4 (e:\ProgramData\anaconda3\lib\site-packages\bs4\__init__.py) from bs4 import beautifulsoup 错误导致修改首字母大写即可解决这个问题from bs4 import BeautifulSoup  3.3 排除上面的报错后运行后为空的问题 修改import BeautifulSoup 大写首字母排除了上面的错误拼写问题后可以运行了但是运行后只返还了一个空列表 怀疑是没有加headers 被拒绝了。。。下面是运行结果 #E:\work\FangCloudV2\personal_space\2learn\python3\py0001.txtimport requests from bs4 import BeautifulSoupurlhttps://movie.douban.com/celebrity/1315477/photos/ resrequests.get(url) content BeautifulSoup(res.text, html.parser) datacontent.find_all(div,attrs{class:cover}) picture_list[]for d in data:plistd.find(img)[src]picture_list.append(plist) print (picture_list)3.4 增加其他状态码查找原因 加了一些debug 代码看返回的状态码果然发现原因是被豆瓣程序员鄙视了  - - ~ #E:\work\FangCloudV2\personal_space\2learn\python3\py0001.txtimport requests from bs4 import BeautifulSoupurlhttps://movie.douban.com/celebrity/1315477/photos/ resrequests.get(url) content BeautifulSoup(res.text, html.parser) datacontent.find_all(div,attrs{class:cover}) picture_list[]for d in data:plistd.find(img)[src]picture_list.append(plist) print (picture_list)print (res) print (res.status_code) print (res.text) print (res.content.decode()) 3.5 尝试加headers伪装下看看OK了 3.5.1 加了headers可以正常访问了 网站上检查找到requesets.headers找到 user-agent 信息修改代码增加 headers可以正常返回信息了 import requests from bs4 import BeautifulSoupua1Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36 headers{user-agent:ua1}urlhttps://movie.douban.com/celebrity/1315477/photos/ resrequests.get(url,headersheaders) content BeautifulSoup(res.text, html.parser) datacontent.find_all(div,attrs{class:cover}) picture_list[]for d in data:plistd.find(img)[src]picture_list.append(plist) print (picture_list)print (res) print (res.status_code) #print (res.text) #print (res.content.decode()) 3.5.2 把输出的内容修改为 规范输出 每次print一个内容都换行见下面 #E:\work\FangCloudV2\personal_space\2learn\python3\py0001.txtimport requests from bs4 import BeautifulSoupua1Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36 headers{user-agent:ua1}urlhttps://movie.douban.com/celebrity/1315477/photos/ resrequests.get(url,headersheaders) content BeautifulSoup(res.text, html.parser) datacontent.find_all(div,attrs{class:cover}) picture_list[]for d in data:plistd.find(img)[src]picture_list.append(plist) print (picture_list)for p1 in picture_list:print (p1,end\n) # 据说也可以 sep\n print (res) print (res.status_code) #print (res.text) #print (res.content.decode()) 4 翻页处理 4.1 翻页和网页url 变化 点击翻页可以看到页面变化URL也跟着变化每页30张pic所以url 变化的部分也是3060.。。这样 第1页url   https://movie.douban.com/celebrity/1315477/photos/第2页url   https://movie.douban.com/celebrity/1315477/photos/?typeCstart30sortbylikesizeasubtypea第3页url   https://movie.douban.com/celebrity/1315477/photos/?typeCstart60sortbylikesizeasubtypea....最后1页urlhttps://movie.douban.com/celebrity/1315477/photos/?typeCstart2160sortbylikesizeasubtypea 4.2 从查找单页----变成查看并下载多页的pic page1() 是主函数也是多页查询函数request1() 是单页内的查询函数download_picture() 是下载函数 #存哪儿呢当前目录     #居然给存到这来了  C:\Users\Administrator\picture 这里是os的根目录     #文件夹里的pic次序不是按网页下载的次序而是按文件名的排序。。。而且不好改     #但是只有第1页的pic下载了而且页码也只是从1到71而不是73 #E:\work\FangCloudV2\personal_space\2learn\python3\py0001.txtimport requests import os import time from bs4 import BeautifulSoupdef page1():ua1Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36headers{user-agent:ua1}#urlhttps://movie.douban.com/celebrity/1315477/photos/#resrequests.get(url,headersheaders)page0for i in range(0,2160,30):print(开始爬第%s页%page)urlhttps://movie.douban.com/celebrity/1315477/photos/?typeCstart{}sortbylikesizeasubtypearesrequests.get(url,headersheaders)#调用函数1单页查询datarequest1(res)#调用函数2图片下载download_picture(data)pagepage1time.sleep(3) #我还是怂一点好def request1(res):content BeautifulSoup(res.text, html.parser)datacontent.find_all(div,attrs{class:cover})picture_list[]print (res.status_code)for d in data:plistd.find(img)[src]print (d,end\n)picture_list.append(plist)return picture_listdef download_picture(pic_l):if not os.path.exists(rpicture): #存哪儿呢当前目录#居然给存到这来了 C:\Users\Administrator\picture 这里是os的根目录#文件夹里的pic次序不是按网页下载的次序而是按文件名的排序。。。而且不好改#但是只有第1页的pic下载了而且页码也只是从1到71而不是73os.mkdir(rpicture)for i in pic_l:picrequests.get(i)p_namei.split(/)[7]with open(picture\\p_name,wb) as f:f.write(pic.content)page1() C:\Users\Administrator\picture 4.3 改进代码存储到自己设定文件夹 改进内容 指定文件加位置而不是下载默认的 系统用户的pic文件夹里去了页数从1开始因为网页的pic 也是第1页而不是第0页可以显示每次的实际url而且地址里包含了  s%但是还是只下载了第1页的内容 #E:\work\FangCloudV2\personal_space\2learn\python3\py0001.txtimport requests import os import time from bs4 import BeautifulSoupdef page1():ua1Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36headers{user-agent:ua1}#urlhttps://movie.douban.com/celebrity/1315477/photos/#resrequests.get(url,headersheaders)#网页页面从1开始这里也应该从1开始page1for i in range(0,90,30):print(开始爬第%s页%page)urlhttps://movie.douban.com/celebrity/1315477/photos/?typeCstart{%s}sortbylikesizeasubtypea %iprint (str(url))resrequests.get(url,headersheaders)#调用函数1单页查询datarequest1(res)#调用函数2图片下载download_picture(data)pagepage1time.sleep(3) #我还是怂一点好def request1(res):content BeautifulSoup(res.text, html.parser)datacontent.find_all(div,attrs{class:cover})picture_list[]print (res.status_code)for d in data:plistd.find(img)[src]print (d,end\n)picture_list.append(plist)return picture_listdef download_picture(pic_l):if not os.path.exists(rE:\work\FangCloudV2\personal_space\2learn\python3 \picture): #存哪儿呢当前目录#居然给存到这来了 C:\Users\Administrator\picture 这里是os的根目录#文件夹里的pic次序不是按网页下载的次序而是按文件名的排序。。。而且不好改#但是只有第1页的pic下载了而且页码也只是从1到71而不是73os.mkdir(rE:\work\FangCloudV2\personal_space\2learn\python3\picture)for i in pic_l:picrequests.get(i)p_namei.split(/)[7]#注意路径包含特殊的符号\等为了防止被解释为转义要用原始数据r开头with open(rE:\work\FangCloudV2\personal_space\2learn\python3\picture\\p_name, wb) as f:f.write(pic.content)page1() 发现问题所在 每次遍历的图片都是同一批都是第一页的图片从文件名能看出来虽然3次的url确实不一样我把3次的url贴到浏览器居然都指向第1页。。。。这个URL应该有问题 4.4  修正只能下载第1页图片的问题 修改后会根据页面创建不同的文件夹把对应页面的pic放进去OK了 #E:\work\FangCloudV2\personal_space\2learn\python3\py0001.txtimport requests import os import time from bs4 import BeautifulSoupdef page1():ua1Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36headers{user-agent:ua1}#urlhttps://movie.douban.com/celebrity/1315477/photos/#resrequests.get(url,headersheaders)#网页页面从1开始这里也应该从1开始page1for i in range(0,90,30):print(开始爬第%s页%page)urlhttps://movie.douban.com/celebrity/1315477/photos/?typeCstart%ssortbylikesizeasubtypea %iprint (str(url))resrequests.get(url,headersheaders)#调用函数1单页查询datarequest1(res)#调用函数2图片下载download_picture(data,page)pagepage1time.sleep(3) #我还是怂一点好def request1(res):content BeautifulSoup(res.text, html.parser)datacontent.find_all(div,attrs{class:cover})picture_list[]print (res.status_code)for d in data:plistd.find(img)[src]print (d,end\n)picture_list.append(plist)return picture_listdef download_picture(pic_l,page):if not os.path.exists(rE:\work\FangCloudV2\personal_space\2learn\python3\picture\pagestr(page)): #必须str(page) 而不是page os.mkdir(rE:\work\FangCloudV2\personal_space\2learn\python3\picture\pagestr(page)) for i in pic_l:picrequests.get(i)p_namei.split(/)[7]#注意路径包含特殊的符号\等为了防止被解释为转义要用原始数据r开头with open(rE:\work\FangCloudV2\personal_space\2learn\python3\picture\pagestr(page)\\p_name, wb) as f:f.write(pic.content)page1() 4.5 优化代码 本地路径用变量存起来多次运行重复下载图片问题 前面代码里的问题 多次运行会发现每个文件夹里的内容会重复下载多份但是这次居然没有了自己好了本地路径代码应该用变量存起来而不是写在多句语句里OK了 #E:\work\FangCloudV2\personal_space\2learn\python3\py0001.txtimport requests import os import time from bs4 import BeautifulSoupdef page1():ua1Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36headers{user-agent:ua1}#urlhttps://movie.douban.com/celebrity/1315477/photos/#resrequests.get(url,headersheaders)#网页页面从1开始这里也应该从1开始page1for i in range(0,90,30):print(开始爬第%s页%page)urlhttps://movie.douban.com/celebrity/1315477/photos/?typeCstart%ssortbylikesizeasubtypea %iprint (本次爬的地址是: str(url))resrequests.get(url,headersheaders)#调用函数1单页查询datarequest1(res)#调用函数2图片下载download_picture(data,page)pagepage1time.sleep(3) #我还是怂一点好def request1(res):content BeautifulSoup(res.text, html.parser)datacontent.find_all(div,attrs{class:cover})picture_list[]print (本页返回状态码: str(res.status_code))for d in data:plistd.find(img)[src]print (d,end\n)picture_list.append(plist)return picture_listdef download_picture(pic_l,page):loc1rE:\work\FangCloudV2\personal_space\2learn\python3\picture\pageif not os.path.exists(loc1str(page)): #必须str(page) 而不是page os.mkdir(loc1str(page)) for i in pic_l:picrequests.get(i)p_namei.split(/)[7]#注意路径包含特殊的符号\等为了防止被解释为转义要用原始数据r开头with open(loc1str(page)\\p_name, wb) as f:f.write(pic.content)page1()5 再就是过程中遇到的报错和改正方法 5.1 字符串 连接错误 TypeError: can only concatenate str (not “int“) to str 我原来代码有这么一句print (本页返回状态码: res.status_code)运行会报错 TypeError: can only concatenate str (not “int“) to str因为res.status_code 返回的是数字只有字符串可以  ,  所以用 str() 把 res.status_code 转化为string 就OK了修改为print (本页返回状态码: str(res.status_code)) 5.2 字符串 连接错误 SyntaxError: unterminated string literal SyntaxError: unterminated string literal未结束的字符串造成这种错误的原因其实就是你运行的字符串有多义性比如字符串的引号没有成对出现。比如 转义序列 使用不正确 报错例子 错误print(‘Im a student) 正确print(‘Im a student) 错误with open(loc1str(page)\p_name, wb) as f: 正确with open(loc1str(page)\\p_name, wb) as f: 5.3 意外缩进  IndentationError: unexpected indent IndentationError: unexpected indent就是缩进不符合python 要求 5.4 语法错误 SyntaxError: SyntaxError: Missing parentheses in call to print. Did you mean print(...)?python 还能给出修改意见print () 5.5 拼写错误 AttributeError: NameError: 等等 AttributeError: module requests has no attribute gat. Did you mean: get?NameError: name priint is not defined. Did you mean: print?python 还能给出修改意见 #文件夹里的pic次序不是按网页下载的次序而是按文件名的排序。。。而且不好改         #但是只有第1页的pic下载了而且页码也只是从1到71而不是73 2 有两种解析内容 Beautiful soup 基本按着html结构解析head  body  div p  a  li 等等 也可以选择按xml解析 Xpath就是按照xml解析 Node Div等
文章转载自:
http://www.morning.fsfz.cn.gov.cn.fsfz.cn
http://www.morning.rwnx.cn.gov.cn.rwnx.cn
http://www.morning.xmhpq.cn.gov.cn.xmhpq.cn
http://www.morning.hbnwr.cn.gov.cn.hbnwr.cn
http://www.morning.kpzrf.cn.gov.cn.kpzrf.cn
http://www.morning.cnlmp.cn.gov.cn.cnlmp.cn
http://www.morning.flzqq.cn.gov.cn.flzqq.cn
http://www.morning.wnkqt.cn.gov.cn.wnkqt.cn
http://www.morning.mmjyk.cn.gov.cn.mmjyk.cn
http://www.morning.w58hje.cn.gov.cn.w58hje.cn
http://www.morning.xkzr.cn.gov.cn.xkzr.cn
http://www.morning.smkxm.cn.gov.cn.smkxm.cn
http://www.morning.llcsd.cn.gov.cn.llcsd.cn
http://www.morning.qlhkx.cn.gov.cn.qlhkx.cn
http://www.morning.rqkzh.cn.gov.cn.rqkzh.cn
http://www.morning.jtybl.cn.gov.cn.jtybl.cn
http://www.morning.xrwbc.cn.gov.cn.xrwbc.cn
http://www.morning.dljujia.com.gov.cn.dljujia.com
http://www.morning.hnrpk.cn.gov.cn.hnrpk.cn
http://www.morning.xfxnq.cn.gov.cn.xfxnq.cn
http://www.morning.xkzmz.cn.gov.cn.xkzmz.cn
http://www.morning.fxzw.cn.gov.cn.fxzw.cn
http://www.morning.cwgpl.cn.gov.cn.cwgpl.cn
http://www.morning.sfcfy.cn.gov.cn.sfcfy.cn
http://www.morning.nlzpj.cn.gov.cn.nlzpj.cn
http://www.morning.ydrml.cn.gov.cn.ydrml.cn
http://www.morning.lgrkr.cn.gov.cn.lgrkr.cn
http://www.morning.zdtfr.cn.gov.cn.zdtfr.cn
http://www.morning.jstggt.cn.gov.cn.jstggt.cn
http://www.morning.npfrj.cn.gov.cn.npfrj.cn
http://www.morning.rfhm.cn.gov.cn.rfhm.cn
http://www.morning.lpyjq.cn.gov.cn.lpyjq.cn
http://www.morning.lqchz.cn.gov.cn.lqchz.cn
http://www.morning.qckwj.cn.gov.cn.qckwj.cn
http://www.morning.xfrqf.cn.gov.cn.xfrqf.cn
http://www.morning.flzqq.cn.gov.cn.flzqq.cn
http://www.morning.rykx.cn.gov.cn.rykx.cn
http://www.morning.lqljj.cn.gov.cn.lqljj.cn
http://www.morning.wgqtt.cn.gov.cn.wgqtt.cn
http://www.morning.yfffg.cn.gov.cn.yfffg.cn
http://www.morning.rxdsq.cn.gov.cn.rxdsq.cn
http://www.morning.ppqjh.cn.gov.cn.ppqjh.cn
http://www.morning.tqsnd.cn.gov.cn.tqsnd.cn
http://www.morning.lwcgh.cn.gov.cn.lwcgh.cn
http://www.morning.ftmp.cn.gov.cn.ftmp.cn
http://www.morning.psqs.cn.gov.cn.psqs.cn
http://www.morning.cgntj.cn.gov.cn.cgntj.cn
http://www.morning.wnywk.cn.gov.cn.wnywk.cn
http://www.morning.plqqn.cn.gov.cn.plqqn.cn
http://www.morning.zrbpx.cn.gov.cn.zrbpx.cn
http://www.morning.mwkwg.cn.gov.cn.mwkwg.cn
http://www.morning.knmp.cn.gov.cn.knmp.cn
http://www.morning.nkyqh.cn.gov.cn.nkyqh.cn
http://www.morning.ylrxd.cn.gov.cn.ylrxd.cn
http://www.morning.ykqbs.cn.gov.cn.ykqbs.cn
http://www.morning.ywndg.cn.gov.cn.ywndg.cn
http://www.morning.ampingdu.com.gov.cn.ampingdu.com
http://www.morning.mooncore.cn.gov.cn.mooncore.cn
http://www.morning.mszls.cn.gov.cn.mszls.cn
http://www.morning.fmjzl.cn.gov.cn.fmjzl.cn
http://www.morning.rwmq.cn.gov.cn.rwmq.cn
http://www.morning.krdmn.cn.gov.cn.krdmn.cn
http://www.morning.qqtzn.cn.gov.cn.qqtzn.cn
http://www.morning.jkpnm.cn.gov.cn.jkpnm.cn
http://www.morning.hwnnm.cn.gov.cn.hwnnm.cn
http://www.morning.dywgl.cn.gov.cn.dywgl.cn
http://www.morning.xnnpy.cn.gov.cn.xnnpy.cn
http://www.morning.xplng.cn.gov.cn.xplng.cn
http://www.morning.wphfl.cn.gov.cn.wphfl.cn
http://www.morning.mxmzl.cn.gov.cn.mxmzl.cn
http://www.morning.lwqst.cn.gov.cn.lwqst.cn
http://www.morning.rtbj.cn.gov.cn.rtbj.cn
http://www.morning.sfsjh.cn.gov.cn.sfsjh.cn
http://www.morning.lsqxh.cn.gov.cn.lsqxh.cn
http://www.morning.hmqmm.cn.gov.cn.hmqmm.cn
http://www.morning.thbkc.cn.gov.cn.thbkc.cn
http://www.morning.qctsd.cn.gov.cn.qctsd.cn
http://www.morning.pmbcr.cn.gov.cn.pmbcr.cn
http://www.morning.mtxrq.cn.gov.cn.mtxrq.cn
http://www.morning.zzfqn.cn.gov.cn.zzfqn.cn
http://www.tj-hxxt.cn/news/276439.html

相关文章:

  • 网页设计网站开发培训wordpress主题那个好
  • 跟网站开发有关的内容做积分网站
  • 网站建设的重要性意义网站域名年龄
  • 创新的网站建设专做动漫解说的网站
  • 九里徐州网站开发网站怎样做平面设计图
  • 精美网站建设公司西安哪家网络公司做网站
  • 安顺市住房与城乡建设局网站专门做淘宝客网站
  • 东莞网站设计及拍摄方案公司网站改版意见方案
  • 网站建设优秀公司工信部个人备案网站可信吗
  • 网站栏目代码体育网站建设需求
  • 网站推广攻略专业做网站建设
  • 吉林市网站建设网站建设维护有哪些内容
  • 北京大学网站开发的需求分析网站建设行业产业链分析
  • 怎样做士产品销售网站企业网站的种类
  • 网站建设百度文库网站域名及空间购买
  • asp网站 上传空间商务平台网站建设合同
  • 做招聘网站怎么样网页版手游
  • 网站制作多少页公司网站集群系统架构及建设思路
  • 邵阳市建设工程造价管理站网站个人博客模板 wordpress
  • 网站开发管理制度360建筑网官网网址
  • 手机便宜的网站建设wordpress外贸企业模板
  • 如何做一个手机网站成都网站建设公司哪家专业
  • 网站推广公司排名点击查看asp网站建设制作
  • 做阿里网站卖东西赚钱仪器仪表网站制作
  • html网站建设购物案例餐饮外哪个网站做推广
  • 建设银行网站官方网站东莞大岭山邮政编码是多少
  • wordpress外贸建站 视频自适应网站功能
  • 工作室网站建设的意义广西建设网个人登录
  • wordpress网站背景黄山做网站
  • 企业网站开发协议东莞网络推广托管