热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

爬虫python需要什么软件Python爬虫需要学习那些东西?

基础爬虫过程基础的爬虫其实很简单的,主要过程就是:发送请求,并获取响应数据;解析响应数据,获取想要的那部分

基础爬虫过程

基础的爬虫其实很简单的,主要过程就是:发送请求,并获取响应数据;

解析响应数据,获取想要的那部分数据;

存储解析出来的数据;

基础的爬虫事例

比如我们想写一个爬虫程序,自动为我们获取bing搜索首页的备案号。 />bing搜索首页及备案号

1.首先我们就要找到能获取bing首页的URL,这里不用找,就是:https://cn.bing.com/。然后我们就向这个URL发送一个get请求,并得到响应内容。 />用浏览器请求bing搜索首页获取到的响应头 />用浏览器请求bing搜索首页获取到的响应体

2.然后用正则规则去匹配响应中介于“京ICP备”和“号”中间的内容;

3.最终将解析出来的备案号,存储至一个叫bing.txt的文件中;

对应的完整代码如下:

# coding="utf-8"

# 导入requests库,用于实现HTTP请求

import requests

# 导入正则库

import re

# 请求bing搜索首页,并获取响应

response = requests.get("https://cn.bing.com/")

# 响应头部内容

print(response.headers)

#响应体内容

print(response.text)

# 解析响应内容,获取其中我们想要的备案号

number = re.findall(r'京ICP备(.+?)号', response.text)[0]

print(number)

# 将备案号存储到txt文件中

f = open("bing.txt", 'a')

f.write("bing搜索的备案号为:%s" % number)

f.close()

程序运行后最终输入的结果如下(对比一下,是不是和浏览器获取到的内容一致): />程序运行打印的响应头和响应体 />保存至txt文件的备案号

基础爬虫需要学习的内容

基于上面一个简单的实例,应该了解到,基础爬虫部分,我们只需要掌握以下内容即可。

1.获取URL

也就是大家常说的接口,大概意思就是你从哪个URL才能获取到你想要的数据。简单的我们从浏览器中就可以看到。然而如果是想要获取App的数据呢?所以这里还需要需求一个基本的抓包工具的使用(常见的抓包工具有Fiddler、Wireshark等,新手推荐用Fiddler) />

2.模拟发送基本的请求

当获取到URL之后,我们需要模拟请求一下,看看是否可行。这里推荐大家写代码之前先用postman工具进行模拟请求,请求没问题后再写代码。学习两种常见请求类型的传参方式(get请求、post请求)。并且掌握请求中的基本参数,比如:user-agent、host、origin、COOKIE、表单参数等。 />使用postman进行模拟请求

3.数据解析

数据解析方面就比较固定了,掌握基本的正则匹配、Beautifulsoup、Xpath、json解析即可。其中正则匹配性能最好,但是研究正则规则比较麻烦,Beautifulsoup语法人性化,最简单,但是性能差一些,所以我一般选这种的xpath解析。推荐大家安装浏览器插件Xpath Helper,可以直接在浏览器中先模拟解析。 />Xpath Helper插件进行模拟解析

4.数据存储

数据存储最常见的当然是存储至数据库了,当然也有存储值excel、存储为json文件等等的。这里只需要掌握python操作数据库就够走遍天下了,并且有精力的情况下最好将MySQL、Sqlite3、Mongodb、Redis都学习一下。

爬虫进阶需要学习的内容

了解了上面整个过程后,基本写一下基础的爬虫就没问题了。但是实际项目中往往还需要一些进阶的内容(这也就是所谓的入门简单,深入还是有一些细碎的知识):攻克对方的反爬虫,这也是爬虫的重中之重,这一步突破不了,后面基本免谈;

提高爬虫的效率,这里主要是突破反爬虫限制后,进一步提升数据获取的速度;

提升爬虫程序的稳定性,保证爬虫可以长久运行不出错;

常见的反爬虫内容上的反爬虫,比如内容中加了很多和主要书籍无关的数据,浏览器中不会显示,但是影响我们代码解析,又或者用图片代替文本等等。所以需要我们熟练的灵活使用各种解析特性,必要时还需要来个图像识别什么的。

机器验证,常见的就是验证码了,当然还有IP访问频率限制等。这里需要学习基本的代理池搭建(代理池的搭建可以参考我这篇文章),图像识别,甚至机器学习等。MeetUp:利用Python打造免费、高可用、高匿名的IP代理池​zhuanlan.zhihu.comv2-50c40440530bc8bcb361293572bdb634_180x120.jpg

3. 请求上的反爬虫,比如请求中需要需要携带一些变化的参数,这部分参数可能是登录的COOKIE信息,可能是加密算法生成的参数等等。需要我们学习模拟登录,js调试,甚至App逆向分析等。

备注:有时候我们也不能硬碰硬的去分析那些反爬虫,大家都是程序员,要学会找漏洞,少掉一些头发哈~所以这里面有个基本的思路,具体可以参考我这篇文章MeetUp:抖音短视频无水印解析爬虫,换个角度让爬虫更简单​zhuanlan.zhihu.comv2-785c5acb264fc0467a60b9f7fd519ffd_180x120.jpg

提高爬虫效率

学会写基本的爬虫调度,意思就是调度请求、解析、数据保存这几件事情的一个方法。然后配合多进程和多线程来提升效率,多线程方面,爬虫上推荐大家多使用协程。有时候问了进一步提升效率和爬虫的稳定性,还会将不同的事情放在不用的服务器上去完成(分布式爬虫部署),比如调度一个中央服务器,然后分配A服务器去完成请求,分配B去进行数据解析,分配C去进行数据下载保存等等。

提升爬虫健壮性

这个在大型项目中是尤为重要的,比如我们有1000万条数据需要获取,但是获取到500万条的时候程序出错了,这时候怎么处理呢?是修复BUG,放弃这500万数据,重新开始呢?还是断点继续呢?基本的我们要知道哪里可能出错,添上对应的错误捕获并记录哪条数据出了什么错误,后续可针对出错的数据再单独爬取。如果想要做的更智能化一点,我们就需要记录程序再哪个节点出错的,当我们修复BUG后,程序下次运行时,程序能自动从此处开始。关于断点呢,具体业务得具体对待,没有固定的方式,不过有几个通用的点可能都会用到,那就是数据重复排查,通过是否重复来判断是否继续。常见的去重就有:数据库去重(查数据是否存在)、缓存去重(利用Redis中的set类型)、内存去重(HashSet、Bit-Map等等)

本人产品汪一枚,爱好设计,业余Coding,总结的不好还望大佬轻喷!同时也欢迎大家一起交流学习~


推荐阅读
author-avatar
周月醉
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有