qq:800819103
在线客服,实时响应qq群
在线客服,实时响应客服电话
13318873961一、设置User-Agent
1、创建Request对象时指定headers
url = 'http://ip.zdaye.com/'
head = {}
head['User-Agent'] = 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166 Safari/535.19'
req = request.Request(url, headers=head)
#传入创建好的Request对象
response = request.urlopen(req)
html = response.read().decode('utf-8')
print(html)
2、创建Request对象后使用add_header
req.add_header('User-Agent', 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166 Safari/535.19')
# 参数为 (key, value)
二、代理IP设置
使用install_opener方法之后,会将程序默认的urlopen方法替换掉。也就是说,如果使用install_opener之后,在该文件中,再次调用urlopen会使用自己创建好的opener。如果不想替换掉,只是想临时使用一下,可以使用opener.open(url),这样就不会对程序默认的urlopen有影响。
from urllib import request
if __name__ == "__main__":
url = www.16yun.cn'
#这是代理IP
proxy = {'http':'168.68.8.88:66666'}
#创建ProxyHandler
proxy_support = request.ProxyHandler(proxy)
#创建Opener
opener = request.build_opener(proxy_support)
#添加User Angent
opener.addheaders = [('User-Agent','Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36')]
#安装OPener
request.install_opener(opener)
#使用自己安装好的Opener
response = request.urlopen(url)
html = response.read().decode("utf-8")
print(html)
相关文章内容简介
1 ua和代理ip在爬虫代理中如何被设置
一、设置User-Agent 1、创建Request对象时指定headers url∵=∵'http://ip.zdaye.com/' head∵=∵{} head['User-Agent']∵=∵'Mozilla/5.0∵(Linux;∵Android∵4.1.1;∵Nexus∵7∵Build/JRO03D)∵AppleWebKit/535.19∵(KHTML, ∵like∵Gecko)∵Chrome/18.0.1025.166 ∵Safari/535.19' req∵=∵request.Request(url,∵headers=head) #传入创建好的Request对象 response∵=∵request.urlopen(req)... [阅读全文]
最新标签
推荐阅读
24
2019-01
动态IP和静态IP的区别是什么?
动态IP和静态IP的区别是什么?动态IP和静态IP的差别关键在于:动态IP需要在网络连接时自动获取IP地址以供用户正常上网,而静态IP是ISP在装机时分配给用户的IP地址,可以直接连接上网,不用
31
2019-01
爬虫遇到这些状态码是什么意思
我们在使用爬虫的过程中会遇到许多问题,并且返回一些状态码给我们,那么这些状态码代表什么意思呢?若是能正确的理解这些状态码的意思,就能对症下药,解决问题,并成功的获取到数据
16
2019-06
代理IP投票的好处
众所周知,代理IP代理IP就是将用户的真实IP进行替换,用另一个IP进行替换。代理IP的用处是很广的,除了可以用在注册抢购方面以外,当然还有其他的一些方面,例如在数据采集,推广补量投
17
2019-04
我们为什么要设置代理IP?
当我们使用Python爬虫对一个网站进行爬取的时候,一般都会频繁的对该网站进行访问。假设一个网站可以检测到在某一个时间段内,某个IP地址的访问次数,如果该IP地址还是在某一个时间段内
热门文章