qq:800819103
在线客服,实时响应
qq群
在线客服,实时响应
客服电话
13318873961基于Requests使用极光ip代理进行爬虫工作!大家应该都了解,大型网站都会设置相对的反爬虫机制,例如检测ip的浏览频率、次数等,如果超出了真实用户的浏览速度ip就会受限或被禁,因此大家在完成爬虫工作的时候也要采用一些方式,例如选择黑洞代理ip,降低浏览频次,设置UA等,下面就和大家简单介绍下如何使用黑洞代理ip。
基于Requests使用黑洞代理ip代理进行爬虫工作
#!/usr/bin/env python
# -*- coding:utf-8 -*-
import requests
import random
if __name__ == "__main__":
#不同浏览器的UA
header_list = [
# 遨游
{"user-agent": "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)"},
# 火狐
{"user-agent": "Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1"},
# 谷歌
{
"user-agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"}
]
#不同的代理IP(该代理ip可能失效了,请自行到黑洞代理ip官网购买开通)
proxy_list = [
{"http": "112.115.57.20:33128"},
{‘http‘: ‘121.41.171.223:32128‘}
]
#随机获取UA和代理IP
header = random.choice(header_list)
proxy = random.choice(proxy_list)
url = ‘http://www.baidu.com/s?ie=UTF-8&wd=ip‘
#参数3:设置代理
response = requests.get(url=url,headers=header,proxies=proxy)
response.encoding = ‘utf-8‘
with open(‘daili.html‘, ‘wb‘) as fp:
fp.write(response.content)
#切换成原来的IP
requests.get(url, proxies={"http": ""})
相关文章内容简介
1 基于Requests使用黑洞代理进行爬虫工作
基于Requests使用极光ip代理进行爬虫工作!大家应该都了解,大型网站都会设置相对的反爬虫机制,例如检测ip的浏览频率、次数等,如果超出了真实用户的浏览速度ip就会受限或被禁,因此大家在完成爬虫工作的时候也要采用一些方式,例如选择黑洞代理ip,降低浏览频次,设置UA等,下面就和大家简单介绍下如何使用黑洞代理ip。 基于Requests使用黑洞... [阅读全文]
最新标签
推荐阅读
29
2019-07
隐藏IP最好的方法是用代理IP
现在最普及的隐藏IP方法是用代理IP,如果使用的是商家提高的,例如动态ip,还是高匿名的,隐藏IP地址的效果最佳!
25
2019-03
如何最简单最快捷地拥有属于自己的代理IP池
很多朋友在做爬虫的时候经常用到代理IP,他们通过各种渠道购买了各种代理IP套餐,发现总有一些不如意,不能完美的达到自己预期。于是心里一种想法越来越强烈,那就是拥有自己的代理IP池
23
2019-05
什么是网络爬虫代理ip池
尽管互联网上联接了成千上万的服务器和电脑,但它们并不是处于杂乱无章的无序状态,而是每一个主机都有惟一的地址,作为该主机在Internet上的唯一标也就是IP。作为网络爬虫http代理IP池服
24
2019-05
代理ip对互联网应用有什么益处
互联网时代利用最新的互联网技术可以帮助人们更高效率的工作和生活,但同时也给予一些人障碍,比如某些人需要注册很多网站账号的时候就容易丢失密码或者注册不成功。这时候你就要想到
热门文章