当前位置: 首页 > news >正文

竞价单页网站制作百度公司总部地址

竞价单页网站制作,百度公司总部地址,dw网页制作教程scad,科技公司网站模板官网目录 注册 实名得到API链接和账密 Python3requests调用Scpay总结 欢迎关注 『python爬虫』 专栏#xff0c;持续更新中 欢迎关注 『python爬虫』 专栏#xff0c;持续更新中 注册 实名 注册巨量http 用户概览中领取1000ip,在动态代理中使用.用来测试一下还是不错的 得到AP… 目录 注册 实名得到API链接和账密 Python3requests调用Scpay总结 欢迎关注 『python爬虫』 专栏持续更新中 欢迎关注 『python爬虫』 专栏持续更新中 注册 实名 注册巨量http 用户概览中领取1000ip,在动态代理中使用.用来测试一下还是不错的 得到API链接和账密 初次测试建议你提取数量设置为1,api链接会用到 用户名和密码后面会用到 Python3 官方文档URLhttps://www.juliangip.com/help/sdk/http/#python3 requests调用 注意这里的返回格式是txt,修改下面的api和用户名密码即可使用 使用requests请求代理服务器 请求http和https网页均适用 import requests# 提取代理API接口获取1个代理IP # api_url http://v2.api.juliangip.com/dynamic/getips?num1pt1result_typetextsplit1trade_no1834987042xxxxxxsign9e489baa3bf149593f149d7252efd006 api_url API链接# 获取API接口返回的代理IP proxy_ip requests.get(api_url).text# 用户名密码认证(动态代理/独享代理) username 用户名 password 密码proxies { http: http://%(user)s:%(pwd)s%(proxy)s/ % {user: username, pwd: password, proxy: proxy_ip}, https: http://%(user)s:%(pwd)s%(proxy)s/ % {user: username, pwd: password, proxy: proxy_ip}, }# 白名单方式需提前设置白名单 # proxies { # http: http://%(proxy)s/ % {proxy: proxy_ip}, # https: http://%(proxy)s/ % {proxy: proxy_ip}, # }# 要访问的目标网页 target_url https://www.juliangip.com/api/general/Test# 使用代理IP发送请求 response requests.get(target_url, proxiesproxies)# 获取页面内容 if response.status_code 200:print(response.text)Scpay 下面以我的项目myscrapy为例子 在你的scrapy下新建extensions文件夹,新建JuLiang_IP_extend.py文件 JuLiang_IP_extend.py 修改api链接和time.sleep(15) 注意这里的api的返回格式 import time import threadingimport requests from scrapy import signals# 提取代理IP的api api_url API链接 foo Trueclass Proxy:def __init__(self, ):self._proxy_list requests.get(api_url).json().get(data).get(proxy_list)propertydef proxy_list(self):return self._proxy_listproxy_list.setterdef proxy_list(self, list):self._proxy_list listpro Proxy() print(pro.proxy_list)class MyExtend:def __init__(self, crawler):self.crawler crawler# 将自定义方法绑定到scrapy信号上,使程序与spider引擎同步启动与关闭# scrapy信号文档: https://www.osgeo.cn/scrapy/topics/signals.html# scrapy自定义拓展文档: https://www.osgeo.cn/scrapy/topics/extensions.htmlcrawler.signals.connect(self.start, signals.engine_started)crawler.signals.connect(self.close, signals.spider_closed)classmethoddef from_crawler(cls, crawler):return cls(crawler)def start(self):t threading.Thread(targetself.extract_proxy)t.start()def extract_proxy(self):while foo:pro.proxy_list requests.get(api_url).json().get(data).get(proxy_list)#设置每15秒提取一次iptime.sleep(15)def close(self):global foofoo Falsemiddlewares.py 修改用户名和密码 from scrapy import signals from myscrapy.extensions.JuLiang_IP_extend import pro from w3lib.http import basic_auth_header import random class ProxyDownloaderMiddleware:def process_request(self, request, spider):proxy random.choice(pro.proxy_list)request.meta[proxy] http://%(proxy)s % {proxy: proxy}# 用户名密码认证(动态代理/独享代理)request.headers[Proxy-Authorization] basic_auth_header(用户名, 密码) # 白名单认证可注释此行return None修改setting.py 启用插件和中间件 # 配置下载中间件 DOWNLOADER_MIDDLEWARES {myscrapy.middlewares.ProxyDownloaderMiddleware: 100, # ip代理中间件 }# 插件路径 注意路径 EXTENSIONS {myscrapy.extensions.JuLiang_IP_extend.MyExtend: 300, #ip代理拓展 } 总结 大家喜欢的话给个点个关注给大家分享更多计算机专业学生的求学之路 版权声明 发现你走远了mzh原创作品转载必须标注原文链接 Copyright 2023 mzh Crated2023-3-1 欢迎关注 『python爬虫』 专栏持续更新中 欢迎关注 『python爬虫』 专栏持续更新中 『未完待续』
http://www.tj-hxxt.cn/news/227931.html

相关文章:

  • 山西省建设局网站软件开发视频
  • 网站开发asp.net开发定制软件开发
  • 做网站可以用中文域名备案嘛googleseo專業
  • 福田网站建设龙岗网站建设网站集约化建设 统一出口
  • 大连制作网站软件家教补习中心网站建设
  • 网站数据库访问企业网站被转做非法用途
  • 网站小视频怎么做wordpress 手机样式
  • 太原网站建设找山西云起时自助seo网站建设
  • 网站建设swot分析wordpress邮箱订阅
  • 做网站要写代码吗网站优化目的
  • 个人做网站需要注意什么焦作建设银行门户网站
  • 建网站服务器怎么选择海外短视频平台网站
  • 企业网站 源码seo技术培训课程
  • 外包做一个网站一般费用高校信息化建设 网站
  • 企业网站推广的好处花瓣网设计官网
  • 买网站服务器吗ps做网站的分辨率多少钱
  • 门户网站营销口碑营销相关案例
  • 网站模板预览与编辑器巴中微网站建设
  • 企业网站案例怎么查网站是否被k
  • 如何做网站跳转页面登封网站设计
  • 北京做网站推广兼职aspcms建站
  • 企业网站建设专业去招聘网站做顾问
  • 网站管理员工作总结上海网站推广网络公司
  • 太原西北建设有限公司网站大连市建设部网站官网
  • 网站建设使用的什么软件有哪些甘肃省酒泉市做网站公司
  • 江门网站制作策划工程建设合同模板
  • 手机怎样建立网站一个网站每年维护费用
  • 矢量网站动画怎么做软件接口设计文档
  • 网站后台管理系统wordpress分类页首页调用分类描述
  • 个人网站开发与实现开题报告快速网站轻松排名