热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Python爬取电影信息

利用火狐浏览器模拟登录爬取源码!爬取电影天堂的影片进行多页爬取1、导入模块frombs4importBeautifulSoupimportreimport

利用火狐浏览器模拟登录爬取源码  ! 


爬取电影天堂的影片


进行多页爬取


1、导入模块

from bs4 import BeautifulSoup
import re
import requests
from selenium import webdriver
import time

2、构建浏览器爬取多页代码 

for i in range(1, 4):#爬去第一页到第三页的信息firefox = webdriver.Firefox()firefox.get('http://vip.1905.com/list/t_1/p%so6.shtml' % i)time.sleep(10)html = firefox.page_sourcefirefox.quit()

3、解析页面 

soup = BeautifulSoup(html, 'lxml')for soups in soup.find_all(class_='borderBox'):for scores in soups.find_all(class_='fr score'):for score in scores:print("得分:", score)for titles in soups.find_all(class_='name'):for title in titles:print("剧名:", title)for years in soups.find_all(class_='hidden year'):for year in years:print("时间:", year)for zhu_actors in soups.find_all(class_="hidden actor"):for zhu_actor in zhu_actors:print("主演:", zhu_actor)for pages in soups.find_all(class_='hidden descr'):for page in pages:print("简介:", page)for urls in soups.find_all(class_='hidden url'):for url in urls:print("网址:", url)

4、保存解析信息 

with open('file1.txt', 'a+', encoding='utf-8')as f:f.write("得分:"+score+'\n'+"标题:"+title+'\n'+"时间:"+year+'\n' +"主演:" +zhu_actor+'\n'+"简介:"+page+'\n'+"网址:"+url+'\n')f.write('='*50+'\n')

5、提取图片并保存 

patter = re.compile('')imgs = re.findall(patter, html)print(imgs)for img in imgs:url = 'http:' + imgprint(img)tupian = img.split('/')[-1]res = requests.get(url)with open('D:\爬虫\Video' + '\\' + tupian, 'ab')as f:f.write(res.content)

完整代码如下: 

from bs4 import BeautifulSoup
import re
import requests
from selenium import webdriver
import timefor i in range(1, 4):#爬去第一页到第三页的信息firefox = webdriver.Firefox()firefox.get('http://vip.1905.com/list/t_1/p%so6.shtml' % i)time.sleep(10)html = firefox.page_sourcefirefox.quit()soup = BeautifulSoup(html, 'lxml')for soups in soup.find_all(class_='borderBox'):for scores in soups.find_all(class_='fr score'):for score in scores:print("得分:", score)for titles in soups.find_all(class_='name'):for title in titles:print("剧名:", title)for years in soups.find_all(class_='hidden year'):for year in years:print("时间:", year)for zhu_actors in soups.find_all(class_="hidden actor"):for zhu_actor in zhu_actors:print("主演:", zhu_actor)for pages in soups.find_all(class_='hidden descr'):for page in pages:print("简介:", page)for urls in soups.find_all(class_='hidden url'):for url in urls:print("网址:", url)with open('file1.txt', 'a+', encoding='utf-8')as f:f.write("得分:"+score+'\n'+"标题:"+title+'\n'+"时间:"+year+'\n' +"主演:" +zhu_actor+'\n'+"简介:"+page+'\n'+"网址:"+url+'\n')f.write('='*50+'\n')patter = re.compile('')imgs = re.findall(patter, html)print(imgs)for img in imgs:url = 'http:' + imgprint(img)tupian = img.split('/')[-1]res = requests.get(url)with open('D:\爬虫\Video' + '\\' + tupian, 'ab')as f:f.write(res.content)

利用火狐浏览器模拟登录爬取源码  !


运行代码出现下面的图示: 


推荐阅读
  • 如何实现织梦DedeCms全站伪静态
    本文介绍了如何通过修改织梦DedeCms源代码来实现全站伪静态,以提高管理和SEO效果。全站伪静态可以避免重复URL的问题,同时通过使用mod_rewrite伪静态模块和.htaccess正则表达式,可以更好地适应搜索引擎的需求。文章还提到了一些相关的技术和工具,如Ubuntu、qt编程、tomcat端口、爬虫、php request根目录等。 ... [详细]
  • CSS3选择器的使用方法详解,提高Web开发效率和精准度
    本文详细介绍了CSS3新增的选择器方法,包括属性选择器的使用。通过CSS3选择器,可以提高Web开发的效率和精准度,使得查找元素更加方便和快捷。同时,本文还对属性选择器的各种用法进行了详细解释,并给出了相应的代码示例。通过学习本文,读者可以更好地掌握CSS3选择器的使用方法,提升自己的Web开发能力。 ... [详细]
  • android listview OnItemClickListener失效原因
    最近在做listview时发现OnItemClickListener失效的问题,经过查找发现是因为button的原因。不仅listitem中存在button会影响OnItemClickListener事件的失效,还会导致单击后listview每个item的背景改变,使得item中的所有有关焦点的事件都失效。本文给出了一个范例来说明这种情况,并提供了解决方法。 ... [详细]
  • ZSI.generate.Wsdl2PythonError: unsupported local simpleType restriction ... [详细]
  • Python瓦片图下载、合并、绘图、标记的代码示例
    本文提供了Python瓦片图下载、合并、绘图、标记的代码示例,包括下载代码、多线程下载、图像处理等功能。通过参考geoserver,使用PIL、cv2、numpy、gdal、osr等库实现了瓦片图的下载、合并、绘图和标记功能。代码示例详细介绍了各个功能的实现方法,供读者参考使用。 ... [详细]
  • Html5-Canvas实现简易的抽奖转盘效果
    本文介绍了如何使用Html5和Canvas标签来实现简易的抽奖转盘效果,同时使用了jQueryRotate.js旋转插件。文章中给出了主要的html和css代码,并展示了实现的基本效果。 ... [详细]
  • 本文介绍了Python爬虫技术基础篇面向对象高级编程(中)中的多重继承概念。通过继承,子类可以扩展父类的功能。文章以动物类层次的设计为例,讨论了按照不同分类方式设计类层次的复杂性和多重继承的优势。最后给出了哺乳动物和鸟类的设计示例,以及能跑、能飞、宠物类和非宠物类的增加对类数量的影响。 ... [详细]
  • 基于dlib的人脸68特征点提取(眨眼张嘴检测)python版本
    文章目录引言开发环境和库流程设计张嘴和闭眼的检测引言(1)利用Dlib官方训练好的模型“shape_predictor_68_face_landmarks.dat”进行68个点标定 ... [详细]
  • HTML学习02 图像标签的使用和属性
    本文介绍了HTML中图像标签的使用和属性,包括定义图像、定义图像地图、使用源属性和替换文本属性。同时提供了相关实例和注意事项,帮助读者更好地理解和应用图像标签。 ... [详细]
  • 使用正则表达式爬取36Kr网站首页新闻的操作步骤和代码示例
    本文介绍了使用正则表达式来爬取36Kr网站首页所有新闻的操作步骤和代码示例。通过访问网站、查找关键词、编写代码等步骤,可以获取到网站首页的新闻数据。代码示例使用Python编写,并使用正则表达式来提取所需的数据。详细的操作步骤和代码示例可以参考本文内容。 ... [详细]
  • 本文介绍了使用cacti监控mssql 2005运行资源情况的操作步骤,包括安装必要的工具和驱动,测试mssql的连接,配置监控脚本等。通过php连接mssql来获取SQL 2005性能计算器的值,实现对mssql的监控。详细的操作步骤和代码请参考附件。 ... [详细]
  • IjustinheritedsomewebpageswhichusesMooTools.IneverusedMooTools.NowIneedtoaddsomef ... [详细]
  • Python爬虫中使用正则表达式的方法和注意事项
    本文介绍了在Python爬虫中使用正则表达式的方法和注意事项。首先解释了爬虫的四个主要步骤,并强调了正则表达式在数据处理中的重要性。然后详细介绍了正则表达式的概念和用法,包括检索、替换和过滤文本的功能。同时提到了re模块是Python内置的用于处理正则表达式的模块,并给出了使用正则表达式时需要注意的特殊字符转义和原始字符串的用法。通过本文的学习,读者可以掌握在Python爬虫中使用正则表达式的技巧和方法。 ... [详细]
  • iOS超签签名服务器搭建及其优劣势
    本文介绍了搭建iOS超签签名服务器的原因和优势,包括不掉签、用户可以直接安装不需要信任、体验好等。同时也提到了超签的劣势,即一个证书只能安装100个,成本较高。文章还详细介绍了超签的实现原理,包括用户请求服务器安装mobileconfig文件、服务器调用苹果接口添加udid等步骤。最后,还提到了生成mobileconfig文件和导出AppleWorldwideDeveloperRelationsCertificationAuthority证书的方法。 ... [详细]
  • 欢乐的票圈重构之旅——RecyclerView的头尾布局增加
    项目重构的Git地址:https:github.comrazerdpFriendCircletreemain-dev项目同步更新的文集:http:www.jianshu.comno ... [详细]
author-avatar
拍友2502882315
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有