热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

西刺代理python_python爬西刺代理

爬IP代码importrequestsimportreimportdaukfrombs4importBeautifulSoupimporttimedefdaili():print(

爬IP代码

import requests

import re

import dauk

from bs4 import BeautifulSoup

import time

def daili():

print('[+]极速爬取代理IP,默认为99页')

for b in range(1,99):

url="http://www.xicidaili.com/nt/{}".format(b)

header={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:58.0) Gecko/20100101 Firefox/48.0'}

r=requests.get(url,headers=header)

gsx=BeautifulSoup(r.content,'html.parser')

for line in gsx.find_all('td'):

sf=line.get_text()

dailix=re.findall('(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)',str(sf))

for g in dailix:

po=".".join(g)

print(po)

with open ('采集到的IP.txt','a') as l:

l.write(po+'\n')

daili()

def dailigaoni():

print('[+]极速爬取代理IP,默认为99页')

for i in range(1,99):

url="http://www.xicidaili.com/nn/{}".format(i)

header={'User-Agent':'Mozilla/5.0 (Windows NT 6.1 Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}

r=requests.get(url,headers=header)

bks=r.content

luk=re.findall('(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)',str(bks))

for g in luk:

vks=".".join(g)

print(vks)

with open('采集到的IP.txt','a') as b:

b.write(vks+'\n')

dailigaoni()

def dailihtp():

print('[+]极速爬取代理IP,默认为99页')

for x in range(1,99):

header="{'User-Agent':'Mozilla/5.0 (Windows NT 6.1 Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}"

url="http://www.xicidaili.com/wn/{}".format(x)

r=requests.get(url,headers=header)

gs=r.content

bs=re.findall('(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)',gs)

for kl in bs:

kgf=".".join(kl)

print(kgf)

with open ('采集到的IP.txt','a') as h:

h.write(kgf)

dailihtp()

def dailihttps():

print('[+]极速爬代理IP,默认为99页')

for s in range(1,99):

url="http://www.xicidaili.com/wt/{}".format(s)

header={'User-Agent':'Mozilla/5.0 (Windows NT 6.1 Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}

r=requests.get(url,headers=header)

kl=r.content

lox=re.findall('(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)',kl)

for lk in lox:

los=".".join(lk)

print(los)

with open('采集到的IP.txt','a') as lp:

lp.write(los)

dailihttps()

端口代码

import requests

import re

from bs4 import BeautifulSoup

def daili():

print('[+]极速爬取代理IP端口,默认为99页')

for b in range(1, 99):

url = "http://www.xicidaili.com/nt/{}".format(b)

header = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:58.0) Gecko/20100101 Firefox/48.0'}

r = requests.get(url, headers=header)

gsx = BeautifulSoup(r.content, 'html.parser')

for line in gsx.find_all('td'):

sf = line.get_text()

dailix = re.findall(

'

([0-9]|[1-9]\d{1,3}|[1-5]\d{4}|6[0-5]{2}[0-3][0-5])',

str(sf))

for g in dailix:

po = ".".join(g)

print(po )

with open('采集到的端口.txt.txt', 'a') as l:

l.write(po + '\n')

daili()

def dailigaoni():

print('[+]极速爬取代理IP的端口,默认为99页')

for i in range(1, 99):

url = "http://www.xicidaili.com/nn/{}".format(i)

header = {

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1 Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}

r = requests.get(url, headers=header)

bks = r.content

luk = re.findall(

'

([0-9]|[1-9]\d{1,3}|[1-5]\d{4}|6[0-5]{2}[0-3][0-5])',

str(bks))

for g in luk:

vks = ".".join(g)

print(vks)

with open('采集到的端口.txt.txt', 'a') as b:

b.write(vks + '\n')

dailigaoni()

def dailihtp():

print('[+]极速爬取代理IP,默认为99页')

for x in range(1, 99):

header = "{'User-Agent':'Mozilla/5.0 (Windows NT 6.1 Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}"

url = "http://www.xicidaili.com/wn/{}".format(x)

r = requests.get(url, headers=header)

gs = r.content

bs = re.findall(

'

([0-9]|[1-9]\d{1,3}|[1-5]\d{4}|6[0-5]{2}[0-3][0-5])',

gs)

for kl in bs:

kgf = ".".join(kl)

print(kgf)

with open('采集到的端口.txt.txt', 'a') as h:

h.write(kgf)

dailihtp()

def dailihttps():

print('[+]极速爬代理IP的端口,默认为99页')

for s in range(1, 99):

url = "http://www.xicidaili.com/wt/{}".format(s)

header = {

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1 Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}

r = requests.get(url, headers=header)

kl = r.content

lox = re.findall(

'

([0-9]|[1-9]\d{1,3}|[1-5]\d{4}|6[0-5]{2}[0-3][0-5])',

kl)

for lk in lox:

los = ".".join(lk)

print(los)

with open('采集到的端口.txt', 'a') as lp:

lp.write(los)

dailihttps()

调用代码

print('''

_ooOoo_

o8888888o

88" . "88

(| -_- |)

O\ = /O

____/`---'\____

.' \\| |// `.

/ \\||| : |||// \

/ _||||| -:- |||||- \

| | \\\ - /// | |

| \_| ''\---/'' | |

\ .-\__ `-` ___/-. /

___`. .' /--.--\ `. . __

."" &#39;<`.___\__/___.&#39; >&#39;"".

| | : `- \`.;`\ _ /`;.`/ - ` : | |

\ \ `-. \_ __\ /__ _/ .-` / /

======`-.____`-.___\_____/___.-`____.-&#39;======

`=---=&#39;

^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^

佛祖保佑 永无BUG

&#39;&#39;&#39;)

print(&#39;[!]爬虫速度过快,导致IP被封请更换IP&#39;)

print(&#39;[*]极速爬取代理IP&#39;)

print(&#39;1.普通代理IP&#39;)

print(&#39;2.高匿代理IP&#39;)

print(&#39;3.http代理IP&#39;)

print(&#39;4.https代理IP&#39;)

bk=input(&#39;请选择:&#39;)

def xs():

import 代理.daili

import 代理.dauk

if bk==&#39;1&#39;:

代理.daili.daili.daili()

代理.dauk.daili()

exit()

elif bk==&#39;2&#39;:

代理.daili.daili.dailigaoni()

代理.dauk.dailigaoni()

exit()

elif bk==&#39;3&#39;:

代理.daili.daili.dailihtp()

代理.dauk.dailihtp()

exit()

elif bk==&#39;4&#39;:

代理.daili .daili.dailihttps()

代理.dauk.dailihttps()

exit()

elif bk==&#39;q&#39;:

exit()

else:

print(&#39;[-]没有找到你要的选项&#39;)

xs()

2018-02-17



推荐阅读
  • python之poc编写——sql篇
    文章目录sql注入漏洞漏扫单个网站基础sql扫描多个网站sql基础扫描时间盲注型扫描升阶版sq ... [详细]
  • 超级简单加解密工具的方案和功能
    本文介绍了一个超级简单的加解密工具的方案和功能。该工具可以读取文件头,并根据特定长度进行加密,加密后将加密部分写入源文件。同时,该工具也支持解密操作。加密和解密过程是可逆的。本文还提到了一些相关的功能和使用方法,并给出了Python代码示例。 ... [详细]
  • 使用Ubuntu中的Python获取浏览器历史记录原文: ... [详细]
  • Python瓦片图下载、合并、绘图、标记的代码示例
    本文提供了Python瓦片图下载、合并、绘图、标记的代码示例,包括下载代码、多线程下载、图像处理等功能。通过参考geoserver,使用PIL、cv2、numpy、gdal、osr等库实现了瓦片图的下载、合并、绘图和标记功能。代码示例详细介绍了各个功能的实现方法,供读者参考使用。 ... [详细]
  • 使用正则表达式爬取36Kr网站首页新闻的操作步骤和代码示例
    本文介绍了使用正则表达式来爬取36Kr网站首页所有新闻的操作步骤和代码示例。通过访问网站、查找关键词、编写代码等步骤,可以获取到网站首页的新闻数据。代码示例使用Python编写,并使用正则表达式来提取所需的数据。详细的操作步骤和代码示例可以参考本文内容。 ... [详细]
  • 这篇文章主要介绍了Python拼接字符串的七种方式,包括使用%、format()、join()、f-string等方法。每种方法都有其特点和限制,通过本文的介绍可以帮助读者更好地理解和运用字符串拼接的技巧。 ... [详细]
  • Python教学练习二Python1-12练习二一、判断季节用户输入月份,判断这个月是哪个季节?3,4,5月----春 ... [详细]
  • 使用python输入PDF编号自动下载freepatentsonline.com的文档#!usrbinenvpython3#codingutf-8#Version:python3. ... [详细]
  • 当我在doWork方法中运行代码时,通过单击button1,进度条按预期工作.但是,当我从其他方法(即btn2,btn3)将列表传递给doWork方法时,进度条在启动后会跳转到10 ... [详细]
  • 文章目录简介HTTP请求过程HTTP状态码含义HTTP头部信息Cookie状态管理HTTP请求方式简介HTTP协议(超文本传输协议)是用于从WWW服务 ... [详细]
  • 最近在学Python,看了不少资料、视频,对爬虫比较感兴趣,爬过了网页文字、图片、视频。文字就不说了直接从网页上去根据标签分离出来就好了。图片和视频则需要在获取到相应的链接之后取做下载。以下是图片和视 ... [详细]
  • IOS开发之短信发送与拨打电话的方法详解
    本文详细介绍了在IOS开发中实现短信发送和拨打电话的两种方式,一种是使用系统底层发送,虽然无法自定义短信内容和返回原应用,但是简单方便;另一种是使用第三方框架发送,需要导入MessageUI头文件,并遵守MFMessageComposeViewControllerDelegate协议,可以实现自定义短信内容和返回原应用的功能。 ... [详细]
  • python+selenium十:基于原生selenium的二次封装fromseleniumimportwebdriverfromselenium.webdriv ... [详细]
  • Python爬取豆瓣数据实现过程解析
    这篇文章主要介绍了Python爬取豆瓣数据实现过程解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值, ... [详细]
  • pyecharts 介绍
    一、pyecharts介绍ECharts,一个使用JavaScript实现的开源可视化库,可以流畅的运行在PC和移动设备上,兼容当前绝大部 ... [详细]
author-avatar
lee
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有