qq:800819103
在线客服,实时响应qq群
在线客服,实时响应客服电话
13318873961一、设置User-Agent
1、创建Request对象时指定headers
url = 'http://ip.zdaye.com/'
head = {}
head['User-Agent'] = 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166 Safari/535.19'
req = request.Request(url, headers=head)
#传入创建好的Request对象
response = request.urlopen(req)
html = response.read().decode('utf-8')
print(html)
2、创建Request对象后使用add_header
req.add_header('User-Agent', 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166 Safari/535.19')
# 参数为 (key, value)
二、代理IP设置
使用install_opener方法之后,会将程序默认的urlopen方法替换掉。也就是说,如果使用install_opener之后,在该文件中,再次调用urlopen会使用自己创建好的opener。如果不想替换掉,只是想临时使用一下,可以使用opener.open(url),这样就不会对程序默认的urlopen有影响。
from urllib import request
if __name__ == "__main__":
url = www.16yun.cn'
#这是代理IP
proxy = {'http':'168.68.8.88:66666'}
#创建ProxyHandler
proxy_support = request.ProxyHandler(proxy)
#创建Opener
opener = request.build_opener(proxy_support)
#添加User Angent
opener.addheaders = [('User-Agent','Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36')]
#安装OPener
request.install_opener(opener)
#使用自己安装好的Opener
response = request.urlopen(url)
html = response.read().decode("utf-8")
print(html)
相关文章内容简介
1 ua和代理ip在爬虫代理中如何被设置
一、设置User-Agent 1、创建Request对象时指定headers url∵=∵'http://ip.zdaye.com/' head∵=∵{} head['User-Agent']∵=∵'Mozilla/5.0∵(Linux;∵Android∵4.1.1;∵Nexus∵7∵Build/JRO03D)∵AppleWebKit/535.19∵(KHTML, ∵like∵Gecko)∵Chrome/18.0.1025.166 ∵Safari/535.19' req∵=∵request.Request(url,∵headers=head) #传入创建好的Request对象 response∵=∵request.urlopen(req)... [阅读全文]
最新标签
推荐阅读
27
2018-12
什么是动态IP?动态ip和静态ip的区别是什么
什么是动态IP?要想弄明白这个问题,首先要了解一下IP地址是什么。IP地址指的是:互联网协议地址。英文是Internet Protocol Address,缩写就成了IP Address,也就是我们经常说的IP地址。
15
2019-06
上海代理IP哪里可以下载?
现在的网络上,有很多这样的网站。在当前的网络上,更换IP的地方是很多的。选择网站的时候,要看看这家网站提供的IP质量是如何的。
30
2019-04
用代理IP可以不被发现爬虫吗?
网络爬虫在爬取目标网站的时候,总是不知不觉就被发现了,然后关进了小黑屋不见天日。那么,到底是什么行为触发了目标网站的反爬机制呢,只有找出了原因才能解决问题,才能避免下次掉
01
2019-07
爬虫离不开要用到IP池
大数据时代,信息的抓取离不开Python爬虫,但是网站一般会设置反爬虫,比如限制IP,验证码等,所以Python爬虫离不开要用到IP池,用更多的IP来掩盖,那么网络爬虫哪种换IP软件好呢?现在和黑
热门文章