热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

爬虫之requests进阶

requests模块高级代理(反爬机制)短时间向一个服务器发起高频请求,会被认定为异常请求,将当前ip列入黑名单概念:在爬虫中指的就是代理服务器代理服务器的作用:拦截请求和响应,进

requests模块高级


代理(反爬机制)

短时间向一个服务器发起高频请求,会被认定为异常请求,将当前ip列入黑名单



  • 概念:在爬虫中指的就是代理服务器

  • 代理服务器的作用:

    • 拦截请求和响应,进行转发



  • 代理和爬虫之间的关联?

    • 如果pc端ip被禁掉后,我们就可以使用代理机制更换请求的ip



  • 如何获取相关的代理服务器

    • 快代理:https://www.kuaidaili.com/

    • 西刺代理:https://www.xicidaili.com/

    • 代理精灵:http://http.zhiliandaili.com/(推荐使用,便宜)

    • 购半价:http://www.goubanjia.com/



  • 匿名度

    • 透明:知道你使用代理,也知道你的真实ip

    • 匿名:对方服务器知道你使用了代理机制,但是不会到你的真实ip

    • 高匿名:对方服务器不知道你使用了代理机制,更不知道你的真实ip



  • 类型

    • http:只可以拦截转发http协议的请求

    • https:证书秘钥加密,只可以转发拦截https的请求




基本使用



  • 基于搜狗ip搜索,搜索到的页面中会显示该请求对应的ip地址

    • https://www.sogou.com/web?query=ip



  • 语法结构

    • get/post(proxies={'http/https':'ip:prot'})



import requests
from lxml import etree
headers = {
'user-agent': 'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/80.0.3987.132 safari/537.36'
}
url = "https://www.sogou.com/web?query=ip"
# 代理机制对应的就是get或者post方法中一个叫做proxies的参数
page_text = requests.get(url=url,headers=headers,proxies={"https":'221.1.200.242:38652'}).text
tree = etree.html(page_text)
# 在xpath表达式中不能出现tbody标签
ip = tree.xpath('//*[@id="ipsearchresult"]/strong/text()')[0]
print(ip)

代理池案例

爬取某一网站请求过多会被封ip,所以要使用代理池



  • 将西刺代理中的免费代理ip进行爬取

    • https://www.xicidaili.com/nn/



import requests
import random
from lxml import etree
headers = {
'user-agent': 'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/80.0.3987.132 safari/537.36'
}
all_ips = []
api_url = "购买代理精灵付费ip生成的html的地址"
api_text = requests.get(url=api_url,headers=headers).text
api_tree = etree.html(api_text)
datas = api_tree.path('//body//text()') # 取出所有文本
for data in datas:
dic = {
'https':data
}
all_ips.append(dic) # 以字典的形式[{},{}...]
url = "https://www.xicidaili.com/nn/%d" # 定义一个通用的url模板
ip_datas = [] # 解析到的所有数据
for page_num in range(1,50): # 页码越多,代理池ip就越多,ip有效时长多一点
new_url = format(url%page_num)
page_text=requests.get(url=new_url,headers=headers,proxies=random.choice(all_ips)).text
tree =etree.html(page_text)
tr_lst = tree.xpath('//*[@id="ip_list"]//tr')[1:]
for tr in tr_lst:# 局部数据解析
ip = tr.xpath('./td[2]/text()')[0]
prot = tr.xpath('./td[3]/text()')[0]
dic_ = {
"https":ip + ":" + prot
}
ip_datas.append(dic_)
print(len(datas)) # 爬取到的ip

模拟登录



  • 为什么要实现模拟登录?

    • 相关页面是必须经过登陆之后才可见的




验证码处理



  • 验证码的处理



    • 使用相关的打码平台进行验证码的动态识别



    • 打码平台



      • 超级鹰(推荐,可以识别12306验证)

        • http://www.chaojiying.com/



      • 云打码

        • http://yundama.com/

        • 创建开发者帐号,普通用户登录无法创建id





    • 超级鹰使用流程



      • 注册【用户中心】身份的帐号



      • 登录



        • 创建一个软件

          用户中心→软件id→添加软件



        • 下载示例代码









#!/usr/bin/env python
# coding:utf-8
import requests
from hashlib import md5
class chaojiying_client(object):
def __init__(self, username, password, soft_id):
self.username = username
password = password.encode('utf8')
self.password = md5(password).hexdigest()
self.soft_id = soft_id
self.base_params = {
'user': self.username,
'pass2': self.password,
'softid': self.soft_id,
}
self.headers = {
'connection': 'keep-alive',
'user-agent': 'mozilla/4.0 (compatible; msie 8.0; windows nt 5.1; trident/4.0)',
}
def postpic(self, im, codetype):
"""
im: 图片字节
codetype: 题目类型 参考 http://www.chaojiying.com/price.html
"""
params = {
'codetype': codetype,
}
params.update(self.base_params)
files = {'userfile': ('ccc.jpg', im)}
r = requests.post('http://upload.chaojiying.net/upload/processing.php', data=params, files=files, headers=self.headers)
return r.json()
def reporterror(self, im_id):
"""
im_id:报错题目的图片id
"""
params = {
'id': im_id,
}
params.update(self.base_params)
r = requests.post('http://upload.chaojiying.net/upload/reporterror.php', data=params, headers=self.headers)
return r.json()
# 封装一个验证码识别的函数
def transform_code(imgpath,imgtype):
chaojiying = chaojiying_client('超级鹰用户名', '超级鹰用户名的密码', '用户中心>>软件id')
im = open(imgpath, 'rb').read()
return chaojiying.postpic(im, imgtype)['pic_str']

COOKIE处理



  • 手动处理

    • 将请求携带的COOKIE封装到headers中



  • 自动处理

    • session对象,该对象和requests都可以进行get和post请求的发送; 使用session对象发送请求过程中,产生的COOKIE会被自动存储到session对象中; COOKIE存储到session对象中后,再次使用session进行请求发送,则该次请求就是携带着COOKIE发送的请求。

    • session处理COOKIE的时候,session对象最少发几次请求?

      • 两次。第一次是为了获取和存储COOKIE;第二次才是携带COOKIE进行的请求发送。



    • session = requests.session()



需求:爬取雪球网中的新闻标题和内容



  • 手动处理COOKIE

    • 有局限性,不能保证COOKIE的有效时长



import requests
headers = {
'user-agent': 'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/80.0.3987.132 safari/537.36',
# 手动处理
'COOKIE':'aliyungf_tc=aqaaanpdtcedngqa0evi33fxpcso1bvs; acw_tc=2760823015846080972884781e8f986f089c7939870e775a86ffb898ca91d4; xq_a_token=a664afb60c7036c7947578ac1a5860c4cfb6b3b5; xqat=a664afb60c7036c7947578ac1a5860c4cfb6b3b5; xq_r_token=01d9e7361ed17caf0fa5eff6465d1c90dbde9ae2; xq_id_token=eyj0exaioijkv1qilcjhbgcioijsuzi1nij9.eyj1awqioi0xlcjpc3mioij1yyisimv4cci6mtu4ntm2mjywnywiy3rtijoxntg0nja4mdcwnzy4lcjjawqioijkowqwbjrbwnvwin0.gwlwgxwjdywungniatqxswjjo6nkjy9pcj0acif9vuhvsuxei7iw7_wivbhdc1wtk86j8ayj_bzd-kxyshad1z8kym6tv80l931tmestgj1i6up66wsauz3pydbc4ko1chueqmw_nca1uhsjwrc-4mokmmbbll6ryvpsocfrxrvrqy-dx_1ubcs_bsrcaakyoecwxo01tgfqqovebd9apgudaxtqc3hajptlzpqyh62cyyijzwhgsbi0emf1k1wmp_539girzempne7ngk6n1i8tqtdh_xadtfffk07g177w84nvujfsb8hpca6rzydugpamawqqjcpeusdzdkhkda; u=301584608097293; hm_lvt_1db88642e346389874251b5a1eded6e3=1584608100; device_id=24700f9f1986800ab4fcc880530dd0ed; COOKIEsu=901584608234987; hm_lpvt_1db88642e346389874251b5a1eded6e3=1584608235'
}
url = 'https://xueqiu.com/v4/statuses/public_timeline_by_category.json?'
params = {
'since_id': '-1',
'max_id': '20369159',
'count': '15',
'category': '-1',
}
page_json = requests.get(url=url,headers=headers,params=params).json()
print(page_json)


  • 自动处理

    • 推荐使用,每次都可以获取新的COOKIE



import requests
headers = {
'user-agent': 'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/80.0.3987.132 safari/537.36'
}
# 实例化一个session对象
session = requests.session()
# 试图将COOKIE获取且存储到session对象中,url得试着来
session.get('https://xueqiu.com/',headers=headers)
# url地址
url = 'https://xueqiu.com/v4/statuses/public_timeline_by_category.json?'
# 发请求索携带的参数
params = {
'since_id': '-1',
'max_id': '20369159',
'count': '15',
'category': '-1',
}
# 携带COOKIE的发送求情
page_json = session.get(url=url,headers=headers,params=params).json()
print(page_json)

案例:古诗文网模拟登陆



  • url:https://so.gushiwen.org/user/login.aspx?from=http://so.gushiwen.org/user/collect.aspx

  • 分析

    • 通过抓包工具定位到点击登录按钮对应的数据包(包含用户名、密码、验证码)

    • 从数据包中取出请求的url,请求方式,请求参数



import requests
from lxml import etree
headers = {
'user-agent': 'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/80.0.3987.132 safari/537.36'
}
# 网站涉及到COOKIE,直接实例化session对象,所有请求都用session发送
session = requests.session()
# 验证码识别
first_url = "https://so.gushiwen.org/user/login.aspx?from=http://so.gushiwen.org/user/collect.aspx"
page_text = session.get(first_url,headers=headers).text
tree = etree.html(page_text)
code_img_src = "https://so.gushiwen.org/" + tree.xpath('//*[@id="imgcode"][email protected]')[0]
# 对验证码图片的地址进行发请求,产生了COOKIE
code_img_data = session.get(code_img_src,headers=headers).content
with open('./code.jpg','wb') as f:
f.write(code_img_data)
# 基于超级鹰识别验证码,可以将超级鹰的包导入,因为我用的是jupyter,上面运行过超级鹰的包和我写的函数,所以直接拿来用了,使用pycharm的话就导入一下
# from 超级鹰py文件路径 import transform_code
code_img_text = transform_code('./code.jpg',1902)
# 识别验证码也不是百分百成功的,所以查看一下
print(code_img_text)
url = 'https://so.gushiwen.org/user/login.aspx'
# 动态参数
data = {
'__viewstate': 'ldci9gbqvef2rdrer42gqu3m7xrls5iibh9mpop+qc1oncwpo9eqczsxuhhinxi26x0x19nb1l6gw26sc8qi4q/xnapck67ogf/fgdofhuewfpnrlznjctqf/no=',
'__viewstategenerator': 'c93be1ae',
'from': 'http://so.gushiwen.org/user/collect.aspx',
'email': '网站用户名',
'pwd': '网站用户名对应的密码',
'code': code_img_text, # 验证码
'denglu': '登录',
}
page_text = session.post(url=url,headers=headers,data=data).text
with open('./古诗文.html','w',encoding='utf-8') as f:
# 将登陆后的页面持久化存储
f.write(page_text)

遇到了动态变化的请求参数该如何处理?



  • 通常情况下,动态变化的请求参数的值都会被隐藏在前台页面中

  • 基于抓包工具进行全局搜索(基于js逆向获取相关的参数值)


语音合成

基于百度ai开放平台,全部免费。



  • 在线合成python-sdk文档地址:https://cloud.baidu.com/doc/speech/s/zk4nlz99s


案例:文本数据合成音频文件



  • 需求:爬取文本数据将其通过百度ai的语音合成功能将文字合成音频文件,并将音频文件部署到flask服务器中进行播放

  • 爬取段子网的一句话段子为例,合成音频文件

import requests
import os
from lxml import etree
from aip import aipspeech
# 请求头信息
headers = {
'user-agent': 'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/80.0.3987.132 safari/537.36'
}
# 实例化一个aipspeech对象
""" 你的 appid ak sk """
app_id = '18937972'
api_key = 'zdkcbvifz6trove2txdelcgs'
secret_key = 'owrrlm2iebwa2vf8hu4um8q5oezwuanp'
client = aipspeech(app_id, api_key, secret_key)
# 创建存放音频的文件夹
dirname = 'static'
if not os.path.exists(dirname):
os.mkdir(dirname)
# 通用url地址
all_url = 'https://duanziwang.com/category/%e4%b8%80%e5%8f%a5%e8%af%9d%e6%ae%b5%e5%ad%90/{}/'
# 全站爬取,随便爬取10页
for num in range(1,11):
url = all_url.format(num)
page_text = requests.get(url=url,headers=headers).text
tree = etree.html(page_text)
article_list = tree.xpath('/html/body/section/div/div/main/article')
for art in article_list:
# 采集音频文件的存储路径、名字、后缀
title = "./static/" + art.xpath('./div[1]/h1/a/text()')[0] + ".mp3"
cOntent= art.xpath('./div[2]/p/text()')[0]
# 百度ai接口调用
result = client.synthesis(content, 'zh', 1, {
# 音量1-15
'vol': 5,
# 发声,0女,1男
'per': 0,
# 语速1-9
'spd': 5,
})
# 识别正确返回语音二进制 错误则返回dict 参照下面错误码
if not isinstance(result, dict):
with open(title, 'wb') as f:
f.write(result)
print("over!")

flask搭建

未完待续...



推荐阅读
  • 这是原文链接:sendingformdata许多情况下,我们使用表单发送数据到服务器。服务器处理数据并返回响应给用户。这看起来很简单,但是 ... [详细]
  • 本文介绍了使用AJAX的POST请求实现数据修改功能的方法。通过ajax-post技术,可以实现在输入某个id后,通过ajax技术调用post.jsp修改具有该id记录的姓名的值。文章还提到了AJAX的概念和作用,以及使用async参数和open()方法的注意事项。同时强调了不推荐使用async=false的情况,并解释了JavaScript等待服务器响应的机制。 ... [详细]
  • 解决nginx启动报错epoll_wait() reported that client prematurely closed connection的方法
    本文介绍了解决nginx启动报错epoll_wait() reported that client prematurely closed connection的方法,包括检查location配置是否正确、pass_proxy是否需要加“/”等。同时,还介绍了修改nginx的error.log日志级别为debug,以便查看详细日志信息。 ... [详细]
  • 如何实现织梦DedeCms全站伪静态
    本文介绍了如何通过修改织梦DedeCms源代码来实现全站伪静态,以提高管理和SEO效果。全站伪静态可以避免重复URL的问题,同时通过使用mod_rewrite伪静态模块和.htaccess正则表达式,可以更好地适应搜索引擎的需求。文章还提到了一些相关的技术和工具,如Ubuntu、qt编程、tomcat端口、爬虫、php request根目录等。 ... [详细]
  • Nginx使用AWStats日志分析的步骤及注意事项
    本文介绍了在Centos7操作系统上使用Nginx和AWStats进行日志分析的步骤和注意事项。通过AWStats可以统计网站的访问量、IP地址、操作系统、浏览器等信息,并提供精确到每月、每日、每小时的数据。在部署AWStats之前需要确认服务器上已经安装了Perl环境,并进行DNS解析。 ... [详细]
  • http:my.oschina.netleejun2005blog136820刚看到群里又有同学在说HTTP协议下的Get请求参数长度是有大小限制的,最大不能超过XX ... [详细]
  • 31.项目部署
    目录1一些概念1.1项目部署1.2WSGI1.3uWSGI1.4Nginx2安装环境与迁移项目2.1项目内容2.2项目配置2.2.1DEBUG2.2.2STAT ... [详细]
  • 背景应用安全领域,各类攻击长久以来都危害着互联网上的应用,在web应用安全风险中,各类注入、跨站等攻击仍然占据着较前的位置。WAF(Web应用防火墙)正是为防御和阻断这类攻击而存在 ... [详细]
  • 本文介绍了如何使用PHP向系统日历中添加事件的方法,通过使用PHP技术可以实现自动添加事件的功能,从而实现全局通知系统和迅速记录工具的自动化。同时还提到了系统exchange自带的日历具有同步感的特点,以及使用web技术实现自动添加事件的优势。 ... [详细]
  • [译]技术公司十年经验的职场生涯回顾
    本文是一位在技术公司工作十年的职场人士对自己职业生涯的总结回顾。她的职业规划与众不同,令人深思又有趣。其中涉及到的内容有机器学习、创新创业以及引用了女性主义者在TED演讲中的部分讲义。文章表达了对职业生涯的愿望和希望,认为人类有能力不断改善自己。 ... [详细]
  • WebSocket与Socket.io的理解
    WebSocketprotocol是HTML5一种新的协议。它的最大特点就是,服务器可以主动向客户端推送信息,客户端也可以主动向服务器发送信息,是真正的双向平等对话,属于服务器推送 ... [详细]
  • 本文介绍了django中视图函数的使用方法,包括如何接收Web请求并返回Web响应,以及如何处理GET请求和POST请求。同时还介绍了urls.py和views.py文件的配置方式。 ... [详细]
  • 集成电路企业在进行跨隔离网数据交换时面临着安全性问题,传统的数据交换方式存在安全性堪忧、效率低下等问题。本文以《Ftrans跨网文件安全交换系统》为例,介绍了如何通过丰富的审批流程来满足企业的合规要求,保障数据交换的安全性。 ... [详细]
  • 网络请求模块选择——axios框架的基本使用和封装
    本文介绍了选择网络请求模块axios的原因,以及axios框架的基本使用和封装方法。包括发送并发请求的演示,全局配置的设置,创建axios实例的方法,拦截器的使用,以及如何封装和请求响应劫持等内容。 ... [详细]
  • Spring常用注解(绝对经典),全靠这份Java知识点PDF大全
    本文介绍了Spring常用注解和注入bean的注解,包括@Bean、@Autowired、@Inject等,同时提供了一个Java知识点PDF大全的资源链接。其中详细介绍了ColorFactoryBean的使用,以及@Autowired和@Inject的区别和用法。此外,还提到了@Required属性的配置和使用。 ... [详细]
author-avatar
致力于流浪动物救助量
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有