热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

python教程分享python入门之scrapy框架中Request对象和Response对象的介绍

目录一、request对象二、发送post请求三、response对象一、request对象request对象主要是用来请求数据,爬取一页的数据重新发送一个请求的时候调用,其源码类
目录
  • 一、request对象
  • 二、发送post请求
  • 三、response对象

一、request对象

request对象主要是用来请求数据,爬取一页的数据重新发送一个请求的时候调用,其源码类的位置如

下图所示:

python入门之scrapy框架中Request对象和Response对象的介绍

这里给出其的源码,该方法有很多参数:

class request(object_ref):        def __init__(self, url, callback=none, method='get', headers=none, body=none,                   COOKIEs=none, meta=none, encoding='utf-8', priority=0,                   dont_filter=false, errback=none, flags=none, cb_kwargs=none):            self._encoding = encoding  # this one has to be set first          self.method = str(method).upper()          self._set_url(url)          self._set_body(body)          if not isinstance(priority, int):              raise typeerror(f"request priority not an integer: {priority!r}")          self.priority = priority            if callback is not none and not callable(callback):              raise typeerror(f'callback must be a callable, got {type(callback).__name__}')          if errback is not none and not callable(errback):              raise typeerror(f'errback must be a callable, got {type(errback).__name__}')          self.callback = callback          self.errback = errback            self.COOKIEs = COOKIEs or {}          self.headers = headers(headers or {}, encoding=encoding)          self.dont_filter = dont_filter            self._meta = dict(meta) if meta else none          self._cb_kwargs = dict(cb_kwargs) if cb_kwargs else none          self.flags = [] if flags is none else list(flags)

这里对各个做一个简单的解释:

  1. url :这个request对象发送请求的url。
  2. callback: 在下载器下载相应的数据后执行的回调函数。
  3. method:请求的方法,默认为get方法,可以设置为其他方法。
  4. headers:请求头,对于一些固定的设置,放在settings.py中指定就可以了, 对于那些非固定的,可以在发送请求的时候指定。
  5. body:请求体,传入的是请求参数。
  6. meta:比较常用。用于在不同的请求之间传递数据用。
  7. encoding:编码。默认为utf-8,使用默认的就可以了。
  8. dont_filter: 表示不由调度器过滤,在执行多次重复的请求的时候用得比较多。
  9. errback:在发生错误的是有执行的函数。

二、发送post请求

有时候我们想要在请求数据的时候发送post请求,那么这时候需要使用request的子类formrequest来实现。如果想要在爬虫一开始就发送post请求,那么需要在爬虫类中重写start_requests(self) 方法,并且不在调用 start_urls 里的url。

三、response对象

response对象一般是由scrapy给你自动构建的,因此开发者不需要关心如何创建response对象。而是如何使用它。response对象有很多属性,可以用来提取数据的。

主要有以下属性:

  1. meta: 从其他请求传过来的meta属性,可以用来保持多个请求之间的数据连接。
  2. encoding: 返回字符串编码和解码的格式。
  3. text: 将返回来的数据作为unicode字符串返回
  4. body: 将返回来的数据作为bytes 字符串返回。
  5. xpath: xpath 选择器
  6. css : css选择器。

到此这篇关于python基础之scrapy框架中request对象和response对象的介绍的文章就介绍到这了,更多相关request对象和response对象的介绍内容请搜索<编程笔记>以前的文章或继续浏览下面的相关文章希望大家以后多多支持<编程笔记>!

需要了解更多python教程分享python入门之scrapy框架中Request对象和Response对象的介绍,都可以关注python教程分享栏目&#8212;编程笔记


推荐阅读
author-avatar
龙行天下1027
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有