当前位置: 首页 > news >正文

八年级信息技术怎么制作网站宝鸡seo培训

八年级信息技术怎么制作网站,宝鸡seo培训,中国最新新闻摘抄,广州互联网设计公司一.最终效果 二.项目代码 2.1 新建项目 本文使用scrapy分布式、多线程爬虫框架编写的高性能爬虫,因此新建、运行scrapy项目3步骤: 1.新建项目: scrapy startproject weibo_hot 2.新建 spider: scrapy genspider hot_search "weibo.com" 3…

一.最终效果

二.项目代码

2.1 新建项目

本文使用scrapy分布式、多线程爬虫框架编写的高性能爬虫,因此新建、运行scrapy项目3步骤:

1.新建项目:
scrapy startproject weibo_hot

2.新建 spider:
scrapy genspider hot_search "weibo.com"

3.运行 spider:
scrapy crawl hot_search

注意:hot_search 是spider中的name

4.编写item:

class WeiboHotItem(scrapy.Item):index = scrapy.Field()topic_flag = scrapy.Field()icon_desc_color = scrapy.Field()small_icon_desc = scrapy.Field()small_icon_desc_color = scrapy.Field()is_hot = scrapy.Field()is_gov = scrapy.Field()note = scrapy.Field()mid = scrapy.Field()url = scrapy.Field()flag = scrapy.Field()name = scrapy.Field()word = scrapy.Field()pos = scrapy.Field()icon_desc = scrapy.Field()

5.编写爬虫解析代码:


import os
from itemadapter import ItemAdapter
from .settings import DATA_URI
from .Utils import Tooltool = Tool()class WeiboHotPipeline:def open_spider(self, spider):self.hot_line = "index,mid,word,label_name,raw_hot,category,onboard_time\n"data_dir = os.path.join(DATA_URI)file_path = data_dir + '/hot.csv'#判断文件夹存放的位置是否存在,不存在则新建文件夹if os.path.isfile(file_path):self.data_file = open(file_path, 'a', encoding='utf-8')else:if not os.path.exists(data_dir):os.makedirs(data_dir)self.data_file = open(file_path, 'a', encoding='utf-8')self.data_file.write(self.hot_line)def close_spider(self, spider):  # 在关闭一个spider的时候自动运行self.data_file.close()def process_item(self, item, spider):try:hot_line = '{},{},{},{},{},{},{}\n'.format(item.get('index', ''),item.get('mid', ''),item.get('word', ''),item.get('label_name', ''),item.get('raw_hot', ''),tool.translate_chars(item.get('category', '')),tool.get_format_time(item.get('onboard_time', '')),)self.data_file.write(hot_line)except BaseException as e:print("hot错误在这里>>>>>>>>>>>>>", e, "<<<<<<<<<<<<<错误在这里")return item

三.注意事项

settings.py配置项修改


# Obey robots.txt rules
ROBOTSTXT_OBEY = False # 关闭,否则根据weibo的爬虫策略爬虫无法获取数据

如果

四.运行过程

五.项目说明文档

六.获取完整源码

爱学习的小伙伴,本次案例的完整源码,已上传微信公众号“一个努力奔跑的snail”,后台回复 热搜榜 即可获取。

http://www.tj-hxxt.cn/news/86264.html

相关文章:

  • 江西赣州258网络推广谷歌优化方法
  • 视频logo免费生成网站软件微博推广效果怎么样
  • 开淘宝店怎么做充值网站舆情网站直接打开的软件
  • 网站开发用什么工具高端营销型网站制作
  • 做网站数据库多少钱seo专业培训seo专业培训
  • 上海宝山做网站公司排名常州seo收费
  • 额尔古纳做网站站优化
  • 网站做现金抽奖 能通过百度seo营销
  • 东莞建设银行网点查询兰州seo优化
  • 工商注册公司查名长沙seo咨询
  • 怎么查看网站域名it培训机构哪个好一点
  • 学校网站建设要求长沙企业网站设计
  • 三合一网站和传统网站郑州网站关键词优化外包
  • 静态网站开发课程网产品推广方式有哪些
  • 阿里云医疗网站建设cps推广是什么意思
  • 自己用电脑网站建设烟台seo关键词排名
  • 安徽池州做网站的公司kol推广是什么意思
  • 怎么在自己的网站上做漂浮链接上海关键词优化按天计费
  • 江苏做家纺的公司网站一个具体网站的seo优化
  • 工业设计公司取名网站内部链接优化方法
  • 小型门户网站建设方案品牌公关
  • 西双版纳网站建设苏州搜索引擎优化
  • seo优化专家岳阳seo快速排名
  • 微信如何做有趣的短视频网站深圳推广服务
  • 广州 网站制作 网站推广竞价推广和seo的区别
  • wordpress动态网页淘宝seo搜索排名优化
  • 潍坊网站建设兼职网络营销的流程和方法
  • 昆明云南微网站建设网站域名怎么查询
  • 佛山专业做网站的清远今日头条新闻
  • wordpress导航网站模板免费seo技术教程