热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

如何使用python爬虫爬取大学排名信息

这篇文章将为大家详细讲解有关如何使用python爬虫爬取大学排名信息,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有

这篇文章将为大家详细讲解有关如何使用python爬虫爬取大学排名信息,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

如何使用python爬虫爬取大学排名信息

2. 这次爬取的网址请搜索“阿凡题”(纯技术讨论)

“阿凡题”(纯技术讨论)

3. 在该网址选择查院校,其他都是默认

如何使用python爬虫爬取大学排名信息4. 这次爬取的信息主要是下图红框的内容,在浏览器开发者中,点击XHR就可以发现这个接口,接口的内容都有我们需要的信息。

如何使用python爬虫爬取大学排名信息

5. 先构建请求头,请求头直接复制过来了
如何使用python爬虫爬取大学排名信息

# 构建请求头

headers = {

    'Accept': '*/*',

    'Accept-Encoding': 'gzip, deflate',

    'Accept-Language': 'zh-CN,zh;q=0.9',

    'Connection': 'keep-alive',

    'contentType': 'application/x-www-form-urlencoded; charset=utf-8',

    'COOKIE': 'cfm-major=true',

    'Host': 'gaokao.afanti100.com',

    'media': 'PC',

    'Referer': 'http://gaokao.afanti100.com/university.html',

    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.157 Safari/537.36',

    'X-Requested-With': 'XMLHttpRequest',

}

6. 接下来先请求这条url,通过format方法实现对url的拼接,以此达到翻页的效果,通过查看接口的内容,发现是json格式,大学的信息在data键中的university_lst中,因此我们需要取出这个键,其中university_lst是列表。

如何使用python爬虫爬取大学排名信息

def get_index():

    page = 1

    while True:

        if page > 188:

            break

        url = 'http://gaokao.afanti100.com/api/v1/universities/?degree_level=0&directed_by=0' \

              '&university_type=0&location_province=0&speciality=0&page={}'.format(page)

        # page自增一实现翻页

        page += 1

        # 请求url并返回的是json格式

        resp = requests.get(url, headers=headers).json()

        # 取出大学所在的键值对

        university_lsts = resp.get('data').get('university_lst')

        if university_lsts:

            get_info(university_lsts)

        else:

            continue

7. 通过上一步取出键值对之后,就可以遍历列表取出我们想要的信息。

def get_info(university_lsts):

    # 判断列表是否不为空

    if university_lsts:

        # 遍历列表取出每个大学的信息

        for university_lst in university_lsts:

            # 声明一个字典存储数据

            data_dict = {}

            # 大学名字

            data_dict['name'] = university_lst.get('name')

            # 大学排名

            data_dict['ranking'] = university_lst.get('ranking')

            # 大学标签

            data_dict['tag_lst'] = university_lst.get('tag_lst')

            # 大学重点学科

            data_dict['key_major_count'] = university_lst.get('key_major_count')

            # 硕士点数

            data_dict['graduate_program_count'] = university_lst.get('graduate_program_count')

            # 博士点数

            data_dict['doctoral_program_count'] = university_lst.get('doctoral_program_count')

            # 是否211

            data_dict['is_211'] = university_lst.get('is_211')

            # 是否985

            data_dict['is_985'] = university_lst.get('is_985')

            # 哪个省

            data_dict['location_province'] = university_lst.get('location_province')

            # 哪个城市

            data_dict['location_city'] = university_lst.get('location_city')

            # 大学类型

            data_dict['university_type'] = university_lst.get('university_type')

            data_list.append(data_dict)

            print(data_dict)

8. 最后将信息存储为文件

def save_file():

    # 将数据存储为json文件

    with open('大学排名信息.json', 'w', encoding='utf-8') as f:

        json.dump(data_list, f, ensure_ascii=False, indent=4)

    print('json文件保存成功')

    # 将数据存储为csv文件

    # 表头

    title = data_list[0].keys()

    with open('大学排名信息.csv', 'w', encoding='utf-8', newline='') as f:

        writer = csv.DictWriter(f, title)

        # 写入表头

        writer.writeheader()

        # 写入数据

        writer.writerows(data_list)

    print('csv文件保存成功')

9. 这次爬虫很简单,新手可以用来练练手,全部代码附上

import requests

import json

import csv

# 构建请求头

headers = {

    'Accept': '*/*',

    'Accept-Encoding': 'gzip, deflate',

    'Accept-Language': 'zh-CN,zh;q=0.9',

    'Connection': 'keep-alive',

    'contentType': 'application/x-www-form-urlencoded; charset=utf-8',

    'COOKIE': 'cfm-major=true',

    'Host': 'gaokao.afanti100.com',

    'media': 'PC',

    'Referer': 'http://gaokao.afanti100.com/university.html',

    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.157 Safari/537.36',

    'X-Requested-With': 'XMLHttpRequest',

}

# 声明一个列表存储字典

data_list = []

def get_index():

    page = 1

    while True:

        if page > 188:

            break

        url = 'http://gaokao.afanti100.com/api/v1/universities/?degree_level=0&directed_by=0' \

              '&university_type=0&location_province=0&speciality=0&page={}'.format(page)

        # page自增一实现翻页

        page += 1

        # 请求url并返回的是json格式

        resp = requests.get(url, headers=headers).json()

        # 取出大学所在的键值对

        university_lsts = resp.get('data').get('university_lst')

        if university_lsts:

            get_info(university_lsts)

        else:

            continue

def get_info(university_lsts):

    # 判断列表是否不为空

    if university_lsts:

        # 遍历列表取出每个大学的信息

        for university_lst in university_lsts:

            # 声明一个字典存储数据

            data_dict = {}

            # 大学名字

            data_dict['name'] = university_lst.get('name')

            # 大学排名

            data_dict['ranking'] = university_lst.get('ranking')

            # 大学标签

            data_dict['tag_lst'] = university_lst.get('tag_lst')

            # 大学重点学科

            data_dict['key_major_count'] = university_lst.get('key_major_count')

            # 硕士点数

            data_dict['graduate_program_count'] = university_lst.get('graduate_program_count')

            # 博士点数

            data_dict['doctoral_program_count'] = university_lst.get('doctoral_program_count')

            # 是否211

            data_dict['is_211'] = university_lst.get('is_211')

            # 是否985

            data_dict['is_985'] = university_lst.get('is_985')

            # 哪个省

            data_dict['location_province'] = university_lst.get('location_province')

            # 哪个城市

            data_dict['location_city'] = university_lst.get('location_city')

            # 大学类型

            data_dict['university_type'] = university_lst.get('university_type')

            data_list.append(data_dict)

            print(data_dict)

def save_file():

    # 将数据存储为json文件

    with open('大学排名信息.json', 'w', encoding='utf-8') as f:

        json.dump(data_list, f, ensure_ascii=False, indent=4)

    print('json文件保存成功')

    # 将数据存储为csv文件

    # 表头

    title = data_list[0].keys()

    with open('大学排名信息.csv', 'w', encoding='utf-8', newline='') as f:

        writer = csv.DictWriter(f, title)

        # 写入表头

        writer.writeheader()

        # 写入数据

        writer.writerows(data_list)

    print('csv文件保存成功')

def main():

    get_index()

    save_file()

if __name__ == '__main__':

    main()

关于“如何使用python爬虫爬取大学排名信息”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。


推荐阅读
  • DVWA学习笔记系列:深入理解CSRF攻击机制
    DVWA学习笔记系列:深入理解CSRF攻击机制 ... [详细]
  • 网站访问全流程解析
    本文详细介绍了从用户在浏览器中输入一个域名(如www.yy.com)到页面完全展示的整个过程,包括DNS解析、TCP连接、请求响应等多个步骤。 ... [详细]
  • 浏览器作为我们日常不可或缺的软件工具,其背后的运作机制却鲜为人知。本文将深入探讨浏览器内核及其版本的演变历程,帮助读者更好地理解这一关键技术组件,揭示其内部运作的奥秘。 ... [详细]
  • 本文介绍了使用 Python 编程语言高效抓取微博文本和动态网页图像数据的方法。通过详细的示例代码,展示了如何利用爬虫技术获取微博内容和动态图片,为数据采集和分析提供了实用的技术支持。对于对网络数据抓取感兴趣的读者,本文具有较高的参考价值。 ... [详细]
  • 深入解析Django CBV模型的源码运行机制
    本文详细探讨了Django CBV(Class-Based Views)模型的源码运行流程,通过具体的示例代码和详细的解释,帮助读者更好地理解和应用这一强大的功能。 ... [详细]
  • 短暂的人生中,IT和技术只是其中的一部分。无论换工作还是换行业,最终的目标是成功、荣誉和收获。本文探讨了技术人员如何跳出纯技术的局限,实现更大的职业发展。 ... [详细]
  • HTTP(HyperTextTransferProtocol)是超文本传输协议的缩写,它用于传送www方式的数据。HTTP协议采用了请求响应模型。客服端向服务器发送一 ... [详细]
  • XAMPP 遇到 404 错误:无法找到请求的对象
    在使用 XAMPP 时遇到 404 错误,表示请求的对象未找到。通过详细分析发现,该问题可能由以下原因引起:1. `httpd-vhosts.conf` 文件中的配置路径错误;2. `public` 目录下缺少 `.htaccess` 文件。建议检查并修正这些配置,以确保服务器能够正确识别和访问所需的文件路径。 ... [详细]
  • 在分析和解决 Keepalived VIP 漂移故障的过程中,我们发现主备节点配置如下:主节点 IP 为 172.16.30.31,备份节点 IP 为 172.16.30.32,虚拟 IP 为 172.16.30.10。故障表现为监控系统显示 Keepalived 主节点状态异常,导致 VIP 漂移到备份节点。通过详细检查配置文件和日志,我们发现主节点上的 Keepalived 进程未能正常运行,最终通过优化配置和重启服务解决了该问题。此外,我们还增加了健康检查机制,以提高系统的稳定性和可靠性。 ... [详细]
  • Win10 S系统与Chrome浏览器兼容性问题分析
    2017年5月2日,微软在美国推出了最新的Windows 10 S操作系统,专为教育领域设计,旨在为教师和学生提供一系列高效的产品和服务。该系统的最大特点是其简洁的设计和快速的响应速度,然而在与某些应用的兼容性方面,特别是Chrome浏览器,仍存在一些问题。本文将深入分析这些兼容性问题,并探讨可能的解决方案。 ... [详细]
  • 在 Axublog 1.1.0 版本的 `c_login.php` 文件中发现了一个严重的 SQL 注入漏洞。该漏洞允许攻击者通过操纵登录请求中的参数,注入恶意 SQL 代码,从而可能获取敏感信息或对数据库进行未授权操作。建议用户尽快更新到最新版本并采取相应的安全措施以防止潜在的风险。 ... [详细]
  • Web开发框架概览:Java与JavaScript技术及框架综述
    Web开发涉及服务器端和客户端的协同工作。在服务器端,Java是一种优秀的编程语言,适用于构建各种功能模块,如通过Servlet实现特定服务。客户端则主要依赖HTML进行内容展示,同时借助JavaScript增强交互性和动态效果。此外,现代Web开发还广泛使用各种框架和库,如Spring Boot、React和Vue.js,以提高开发效率和应用性能。 ... [详细]
  • 在PHP中实现腾讯云接口签名,以完成人脸核身功能的对接与签名配置时,需要注意将文档中的POST请求改为GET请求。具体步骤包括:使用你的`secretKey`生成签名字符串`$srcStr`,格式为`GET faceid.tencentcloudapi.com?`,确保参数正确拼接,避免因请求方法错误导致的签名问题。此外,还需关注API的其他参数要求,确保请求的完整性和安全性。 ... [详细]
  • 2012年9月12日优酷土豆校园招聘笔试题目解析与备考指南
    2012年9月12日,优酷土豆校园招聘笔试题目解析与备考指南。在选择题部分,有一道题目涉及中国人的血型分布情况,具体为A型30%、B型20%、O型40%、AB型10%。若需确保在随机选取的样本中,至少有一人为B型血的概率不低于90%,则需要选取的最少人数是多少?该问题不仅考察了概率统计的基本知识,还要求考生具备一定的逻辑推理能力。 ... [详细]
  • 在今天的实践中,我深入学习了网页图像抓取技术,通过编写爬虫程序批量获取网站上的图片资源。具体来说,我选择了一个包含大量高质量图片的网站作为练习对象,并成功实现了将这些图片批量下载到本地存储。这一过程不仅提升了我对爬虫技术的理解,还增强了我的编程能力。 ... [详细]
author-avatar
老黑_微笑
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有