很多小伙伴想知道python爬虫如何设置代理ip,那么今天小编通过这篇文章来给大家详细讲解一下python爬虫设置代理ip的方法,感兴趣的小伙伴可以耐心阅读一下这篇文章。
python爬虫设置代理ip的方法:
第一步,首先我们需要写入获取到的ip地址到proxy;
第二步,然后我们可以用百度检测ip代理来看看是否成功;
第三步,如果ip代理成功了,那么就要求情网页传到参数;
第四步,最后我们发送get请求,获取返回页面保存到自己的电脑。
设置ip代理是爬虫必不可少的技巧,我们如何设置ip呢?继续往下看
查看本机ip地址;打开百度,输入“ip地址”,可以看到本机的IP地址;
本文使用的是goubanjia.com里面的免费ip;
使用时注意要注意传输协议是http还是https,代码如下;
# 用到的库 import requests # 写入获取到的ip地址到proxy proxy = { 'https':'221.178.232.130:8080' } # 用百度检测ip代理是否成功 url = 'https://www.baidu.com/s?' # 请求网页传的参数 params={ 'wd':'ip地址' } # 请求头 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36' } # 发送get请求 response = requests.get(url=url,headers=headers,params=params,proxies=proxy) # 获取返回页面保存到本地,便于查看 with open('ip.html','w',encoding='utf-8') as f: f.write(response.text)
以上就是小编给大家带来的在python爬虫设置代理ip的方法了,希望大家通过阅读小编的文章之后能够有所收获!如果大家觉得小编的文章不错的话,可以多多分享给有需要的人。
更多python相关文章请访问分类:python
【版权声明】本文图文出自大盘站@dapan.cc,转载请注明出处!
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。