热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

使用Python中的HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies(二)(转)

对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过Python语言提供的各种模块,我们无需借助Web服

 对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文上篇中,我们介绍了一个可以帮助简化打开 位于本地和Web上的HTML文档的Python模块。在本文中,我们将论述如何使用Python模块来迅速解析在HTML文件中的数据,从而处理特定的 内容,如链接、图像和COOKIE等。同时还会介绍如何规范HTML文件的格式标签。

  一、从HTML文档中提取链接

  Python语言还有一个非常有用的模块HTMLParser,该模块使我们能够根据HTML文档中的标签来简洁、高效地解析HTML文档。所以,在处理HTML文档的时候,HTMLParser是最常用的模块之一。

import HTMLParser
  
import urllib
  
class parseLinks(HTMLParser.HTMLParser):
  
def handle_starttag(self, tag, attrs):
  
if tag == a:
  
for name,value in attrs:
  
if name == href:
  
print value
  
print self.get_starttag_text()
  lParser
= parseLinks()
  lParser.feed(urllib.urlopen(
"http://www.python.org/index.html").read())

 

处理HTML文档的时候,我们常常需要从其中提取出所有的链接。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义 一个新的HTMLParser类,以覆盖handle_starttag()方法,我们将使用这个方法来显示所有标签的HRef属性值。

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的链接,可以使用read()函数将数据传递给HTMLParser对象。HTMLParser对象 的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。需要注意,如果传给HTMLParser的feed()函数的数 据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很大,需要分段发送给解析器的时候,这个功能就会 有用武之地了。下面是一个具体的例子

import HTMLParser
  
import urllib
  
import sys
  
#定义HTML解析器
  class parseLinks(HTMLParser.HTMLParser):
  
def handle_starttag(self, tag, attrs):
  
if tag == a:
  
for name,value in attrs:
  
if name == href:
  
print value
  
print self.get_starttag_text()
  
#创建HTML解析器的实例

  lParser
= parseLinks()
  
#打开HTML文件

  lParser.feed(urllib.urlopen(
/
  "http://www.python.org/index.html").read())
  lParser.close()

  上述代码的运行结果太长,在此省略,您可以自己运行代码试试。

二、从HTML文档中提取图像

  处理HTML文档的时候,我们常常需要从其中提取出所有的图像。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义 一个新的HTMLParser类,以覆盖handle_starttag()方法,该方法的作用是查找img标签,并保存src属性值所指的文件。

 import HTMLParser
  
import urllib
  
def getImage(addr):
  u
= urllib.urlopen(addr)
  data
= u.read()
  
class parseImages(HTMLParser.HTMLParser):
  
def handle_starttag(self, tag, attrs):
  
if tag == img:
  
for name,value in attrs:
  
if name == src:
  getImage(urlString
+ "/" + value)
  u
= urllib.urlopen(urlString)
  lParser.feed(u.read())

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的图像,可以使用feed(data)函数将数据发送至HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例:

import HTMLParser
  
import urllib
  
import sys
  urlString
= "http://www.python.org"
  #把图像文件保存至硬盘
  def getImage(addr):
  u
= urllib.urlopen(addr)
  data
= u.read()
  splitPath
= addr.split(/)
  fName
= splitPath.pop()
  
print "Saving %s" % fName
  f
= open(fName, wb)
  f.write(data)
  f.close()
  
#定义HTML解析器
  class parseImages(HTMLParser.HTMLParser):
  
def handle_starttag(self, tag, attrs):
  
if tag == img:
  
for name,value in attrs:
  
if name == src:
  getImage(urlString
+ "/" + value)
  
#创建HTML解析器的实例

  lParser
= parseImages()
  
#打开HTML文件

  u
= urllib.urlopen(urlString)
  
print "Opening URL/n===================="
  print u.info()
  
#把HTML文件传给解析器

  lParser.feed(u.read())
  lParser.close()

上述代码的运行结果如下所示:

  Opening URL
  
====================
  Date: Fri,
26 Jun 2009 10:54:49 GMT
  Server: Apache
/2.2.9 (Debian) DAV/2 SVN/1.5.1 mod_ssl/2.2.9 OpenSSL/0.9.8g mod_wsgi/2.3 Python/2.5.2
  Last
-Modified: Thu, 25 Jun 2009 09:44:54 GMT
  ETag:
"105800d-46e7-46d29136f7180"
  Accept
-Ranges: bytes
  Content
-Length: 18151
  Connection: close
  Content
-Type: text/html
  Saving python
-logo.gif
  Saving trans.gif
  Saving trans.gif
  Saving afnic.fr.png

 三、从HTML文档中提取文本

  处理HTML文档的时候,我们常常需要从其中提取出所有的文本。使用HTMLParser模块后,这项任务将变得非常简单了。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_data()方法,该方法是用来解析并文本数据的。

  import HTMLParser
  
import urllib
  
class parseText(HTMLParser.HTMLParser):
  
def handle_data(self, data):
  
if data != /n:
  urlText.append(data)
  lParser
= parseText()
  lParser.feed(urllib.urlopen(
/
  http:
//docs.python.org/lib/module-HTMLParser.html).read())

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的文本,我们可以使用feed(data)函数将数据传递给HTMLParser对象。 HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。要注意的是,如果传给 HTMLParser的feed()函数的数据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很 大,需要分段发送给解析器的时候,这个功能就会有用武之地了。下面是一个具体的代码示例:

  import HTMLParser
  
import urllib
  urlText
= []
  
#定义HTML解析器
  class parseText(HTMLParser.HTMLParser):
  
def handle_data(self, data):
  
if data != /n:
  urlText.append(data)
  
#创建HTML解析器的实例

  lParser
= parseText()
  
#把HTML文件传给解析器

  lParser.feed(urllib.urlopen(
/
  “http:
//docs.python.org/lib/module-HTMLParser.html” /
  ).read())
  lParser.close()
  
for item in urlText:
  
print item

上面代码的运行输出过长,在此略过

四、从HTML文档中提取COOKIEs

  很多时候,我们都需要处理COOKIE,幸运的是Python语言的COOKIElib模块为我们提供了许多自动处理在HTML中的HTTP COOKIE的类。当处理要求为客户端设置COOKIE的HTML文档的时候,这些类对我们非常有用。

  import urllib2
  
import COOKIElib
  
from urllib2 import urlopen, Request
  cJar
= COOKIElib.LWPCOOKIEJar()
  opener
=urllib2.build_opener( /
  urllib2.HTTPCOOKIEProcessor(cJar))
  urllib2.install_opener(opener)
  r
= Request(testURL)
  h
= urlopen(r)
  
for ind, COOKIE in enumerate(cJar):
  
print "%d - %s" % (ind, COOKIE)
  cJar.save(COOKIEFile)

  为了从HTML文档提取COOKIEs,首先得使用COOKIElib模块的LWPCOOKIEJar()函数创建一个COOKIE jar的实例。LWPCOOKIEJar()函数将返回一个对象,该对象可以从硬盘加载COOKIE,同时还能向硬盘存放COOKIE。

  接下来,使用urllib2模块的build_opener([handler, . . .])函数创建一个opener对象,当HTML文件打开时该对象将处理COOKIEs。函数build_opener可以接收零个或多个处理程序(这些 程序将按照它们被指定的顺序连接在一起)作为参数并返回一个。

  注意,如果想让urlopen()使用opener对象来打开HTML文件的话,可以调用install_opener(opener)函数,并将opener对象传给它。否则,请使用opener对象的open(url)函数来打开HTML文件。

  一旦已经创建并安装了opener对象,就可以使用urllib2模块中的Request(url)函数来创建一个Request对象,然后就能使用urlopen(Request)函数来打开HTML文件了。

  打开HTML页面后,该页面的所有COOKIE将被存放到LWPCOOKIEJar对象中,之后,您可以使用LWPCOOKIEJar对象的save(filename)函数了。

  import os
  
import urllib2
  
import COOKIElib
  
from urllib2 import urlopen, Request
  COOKIEFile
= "COOKIEs.dat"
  testURL
= http://maps.google.com/
  #为COOKIE jar 创建实例

  cJar
= COOKIElib.LWPCOOKIEJar()
  
#创建HTTPCOOKIEProcessor的opener对象

  opener
= urllib2.build_opener( /
  urllib2.HTTPCOOKIEProcessor(cJar))
  
#安装HTTPCOOKIEProcessor的opener

  urllib2.install_opener(opener)
  
#创建一个Request对象

  r
= Request(testURL)
  
#打开HTML文件

  h
= urlopen(r)
  
print "页面的头部/n======================"
  print h.info()
  
print "页面的COOKIEs/n======================"
  for ind, COOKIE in enumerate(cJar):
  
print "%d - %s" % (ind, COOKIE)
  
#保存COOKIEs

  cJar.save(COOKIEFile)

上述代码的运行结果如下所示:

  页面的头部
  
======================
  Cache
-Control: private
  Content
-Type: text/html; charset=ISO-8859-1
  Set
-COOKIE: PREF=ID=5d9692b55f029733:NW=1:TM=1246015608:LM=1246015608:S=frfx--b3xt73TaEA; expires=Sun, 26-Jun-2011 11:26:48 GMT; path=/; domain=.google.com
  Date: Fri,
26 Jun 2009 11:26:48 GMT
  Server: mfe
  Expires: Fri,
26 Jun 2009 11:26:48 GMT
  Transfer
-Encoding: chunked
  Connection: close
  页面的COOKIEs
  
======================
  0
-

 五、为HTML文档中的属性值添加引号

  前面我们讨论了如果根据HTML解析器中的某种处理程序来解析HTML文件,可是有时候我们却需要使用所有的处理程序来处理HTML文档。值得庆幸的是,使用HTMLParser模块解析HTML文件的所有要素并不比处理链接或者图像难多少。

  import HTMLParser
  
import urllib
  
class parseAttrs(HTMLParser.HTMLParser):
  
def handle_starttag(self, tag, attrs):
  . . .
  attrParser
= parseAttrs()
  attrParser.init_parser()
  attrParser.feed(urllib.urlopen(
"test2.html").read())

这里,我们将讨论如何使用HTMLParser模块来解析HTML文件,从而为“裸奔”的属性值加上引号。首先,我们要定义一个新的HTMLParser类,以覆盖下面所有的处理程序来为属性值添加引号。

  handle_starttag(tag, attrs)
  handle_charref(name)
  handle_endtag(tag)
  handle_entityref(ref)
  handle_data(text)
  handle_comment(text)
  handle_pi(text)
  handle_decl(text)
  handle_startendtag(tag, attrs)

  我们还需要在parser类中定义一个函数来初始化用于存储解析好的数据的变量,同时还要定义另外一个函数来返回解析好的数据。

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。使用我们创建的init函数初始化该解析器,这样,我们就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并给属性值添加引号,可以使用feed(data)函数将数据传递给HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例代码:

  import HTMLParser
  
import urllib
  
import sys
  
#定义HTML解析器
  class parseAttrs(HTMLParser.HTMLParser):
  
def init_parser (self):
  self.pieces
= []
  
def handle_starttag(self, tag, attrs):
  fixedAttrs
= ""
  #for name,value in attrs:
  for name, value in attrs:
  fixedAttrs
+= "%s=/"%s/" " % (name, value)
  self.pieces.append(
"<%s %s>" % (tag, fixedAttrs))
  
def handle_charref(self, name):
  self.pieces.append(
"&#%s;" % (name))
  
def handle_endtag(self, tag):
  self.pieces.append(
"" % (tag))
  
def handle_entityref(self, ref):
  self.pieces.append(
"&%s" % (ref))
  
def handle_data(self, text):
  self.pieces.append(text)
  
def handle_comment(self, text):
  self.pieces.append(
"" % (text))
  
def handle_pi(self, text):
  self.pieces.append(
"" % (text))
  
def handle_decl(self, text):
  self.pieces.append(
"" % (text))
  
def parsed (self):
  
return "".join(self.pieces)
  
#创建HTML解析器的实例

  attrParser
= parseAttrs()
  
#初始化解析器数据

  attrParser.init_parser()
  
#把HTML文件传给解析器

  attrParser.feed(urllib.urlopen(
"test2.html").read())
  
#显示原来的文件内容
  print "原来的文件/n========================"
  print open("test2.html").read()
  
#显示解析后的文件
  print "解析后的文件/n========================"
  print attrParser.parsed()
  attrParser.close()

我们还需要建立一个测试文件,名为test2.html,该文件内容可以从上述代码的运行结果看到,具体如下所示:

原来的文件
========================


"text/html; charset=utf-8"
http
-equiv="content-type"/>



Web页面清单


Python网站
本地页面



解析后的文件
========================


"text/html; charset=utf-8"
http
-equiv="content-type" >



Web页面清单


"http://www.python.org" >Python网站
"test.html" >本地页面
"test.jpg" >


  六、小结

  对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文将详细介绍了如何使用Python模块来 迅速解析在HTML文件中的数据,从而处理特定的内容,如链接、图像和COOKIE等。同时,我们还给出了一个规范HTML文件的格式标签的例子,希望本 文对您会有所帮助。

(转自:http://www.cnblogs.com/huangcong/archive/2011/08/31/2160747.html)


推荐阅读
  • HDU 2372 El Dorado(DP)的最长上升子序列长度求解方法
    本文介绍了解决HDU 2372 El Dorado问题的一种动态规划方法,通过循环k的方式求解最长上升子序列的长度。具体实现过程包括初始化dp数组、读取数列、计算最长上升子序列长度等步骤。 ... [详细]
  • 本文讨论了如何优化解决hdu 1003 java题目的动态规划方法,通过分析加法规则和最大和的性质,提出了一种优化的思路。具体方法是,当从1加到n为负时,即sum(1,n)sum(n,s),可以继续加法计算。同时,还考虑了两种特殊情况:都是负数的情况和有0的情况。最后,通过使用Scanner类来获取输入数据。 ... [详细]
  • 本文介绍了OC学习笔记中的@property和@synthesize,包括属性的定义和合成的使用方法。通过示例代码详细讲解了@property和@synthesize的作用和用法。 ... [详细]
  • 知识图谱——机器大脑中的知识库
    本文介绍了知识图谱在机器大脑中的应用,以及搜索引擎在知识图谱方面的发展。以谷歌知识图谱为例,说明了知识图谱的智能化特点。通过搜索引擎用户可以获取更加智能化的答案,如搜索关键词"Marie Curie",会得到居里夫人的详细信息以及与之相关的历史人物。知识图谱的出现引起了搜索引擎行业的变革,不仅美国的微软必应,中国的百度、搜狗等搜索引擎公司也纷纷推出了自己的知识图谱。 ... [详细]
  • 1,关于死锁的理解死锁,我们可以简单的理解为是两个线程同时使用同一资源,两个线程又得不到相应的资源而造成永无相互等待的情况。 2,模拟死锁背景介绍:我们创建一个朋友 ... [详细]
  • 《数据结构》学习笔记3——串匹配算法性能评估
    本文主要讨论串匹配算法的性能评估,包括模式匹配、字符种类数量、算法复杂度等内容。通过借助C++中的头文件和库,可以实现对串的匹配操作。其中蛮力算法的复杂度为O(m*n),通过随机取出长度为m的子串作为模式P,在文本T中进行匹配,统计平均复杂度。对于成功和失败的匹配分别进行测试,分析其平均复杂度。详情请参考相关学习资源。 ... [详细]
  • 动态规划算法的基本步骤及最长递增子序列问题详解
    本文详细介绍了动态规划算法的基本步骤,包括划分阶段、选择状态、决策和状态转移方程,并以最长递增子序列问题为例进行了详细解析。动态规划算法的有效性依赖于问题本身所具有的最优子结构性质和子问题重叠性质。通过将子问题的解保存在一个表中,在以后尽可能多地利用这些子问题的解,从而提高算法的效率。 ... [详细]
  • Java验证码——kaptcha的使用配置及样式
    本文介绍了如何使用kaptcha库来实现Java验证码的配置和样式设置,包括pom.xml的依赖配置和web.xml中servlet的配置。 ... [详细]
  • 高质量SQL书写的30条建议
    本文提供了30条关于优化SQL的建议,包括避免使用select *,使用具体字段,以及使用limit 1等。这些建议是基于实际开发经验总结出来的,旨在帮助读者优化SQL查询。 ... [详细]
  • 本文介绍了lua语言中闭包的特性及其在模式匹配、日期处理、编译和模块化等方面的应用。lua中的闭包是严格遵循词法定界的第一类值,函数可以作为变量自由传递,也可以作为参数传递给其他函数。这些特性使得lua语言具有极大的灵活性,为程序开发带来了便利。 ... [详细]
  • 基于layUI的图片上传前预览功能的2种实现方式
    本文介绍了基于layUI的图片上传前预览功能的两种实现方式:一种是使用blob+FileReader,另一种是使用layUI自带的参数。通过选择文件后点击文件名,在页面中间弹窗内预览图片。其中,layUI自带的参数实现了图片预览功能。该功能依赖于layUI的上传模块,并使用了blob和FileReader来读取本地文件并获取图像的base64编码。点击文件名时会执行See()函数。摘要长度为169字。 ... [详细]
  • 本文介绍了使用Java实现大数乘法的分治算法,包括输入数据的处理、普通大数乘法的结果和Karatsuba大数乘法的结果。通过改变long类型可以适应不同范围的大数乘法计算。 ... [详细]
  • 本文讨论了Alink回归预测的不完善问题,指出目前主要针对Python做案例,对其他语言支持不足。同时介绍了pom.xml文件的基本结构和使用方法,以及Maven的相关知识。最后,对Alink回归预测的未来发展提出了期待。 ... [详细]
  • 本文介绍了C#中数据集DataSet对象的使用及相关方法详解,包括DataSet对象的概述、与数据关系对象的互联、Rows集合和Columns集合的组成,以及DataSet对象常用的方法之一——Merge方法的使用。通过本文的阅读,读者可以了解到DataSet对象在C#中的重要性和使用方法。 ... [详细]
  • 本文详细介绍了Linux中进程控制块PCBtask_struct结构体的结构和作用,包括进程状态、进程号、待处理信号、进程地址空间、调度标志、锁深度、基本时间片、调度策略以及内存管理信息等方面的内容。阅读本文可以更加深入地了解Linux进程管理的原理和机制。 ... [详细]
author-avatar
天狼飞虎神印
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有