您的位置:首页 >新闻资讯 > 正文

网络爬虫使用代理IP的正确操作

来源:互联网 作者:admin 时间:2019-09-20 15:38:56

  在用代理IP爬虫的时候,可能会出现无法爬取的情况。这个时候,我们要找对原因去解决问题,首先应该要对IP的可用性做一个测试,如果IP是有效的,可以使用的。那么,可能问题就出在了,我们设置代理IP的方面了。那么,有哪些注意事项是我们设置时需要注意的,怎么才能够正确使用于爬虫呢?


网络爬虫使用代理IP的正确操作


  爬虫时使用代理IP注意事项:


  1、遇到错误


  提示目标计算机积极拒绝,这就说明可能是代理IP无效,或者端口号错误,需要使用有效的IP,如果是使用免费IP,建议使用之前先进行有效检测。


  2、降低访问速度


  本来爬虫使用代理IP突破限制,这会给服务器带来压力,过量的访问影响更是严重,这容易引起网站进行检测,从而导致使用的代理IP被封。如果降低访问速度,可以有效的防止被封,还可以降低对方的访问压力。


  3、做好伪装


  爬虫即便是用的真实IP,可是本身并不是真实的用户,需要从各方面来伪装成用户,比如说浏览器提交请求头,不同的浏览器都有不同的user_agent,爬虫在访问时要注意使用不同的user_agent,从而绕过网站检测客户端的反爬虫机制。否则大量一样的user_agent访问,肯定被检测出来。


  Python网络爬虫如何使用代理IP?


  1、打开Python3,导入urllib的request,调用ProxyHandler,它可以接收代理IP的参数。


  2、把IP地址以字典的形式放入其中,设置键为http,当然有些是https的,然后后面就是IP地址以及端口号,具体看你的IP地址是什么类型的,不同IP端口号可能不同。


  3、用build_opener()来构建一个opener对象。


  4、调用构建好的opener对象里面的open方法来发生请求。实际上urlopen也是类似这样使用内部定义好的opener.open(),这里就相当于我们自己重写。如果我们使用install_opener(),就可以把之前自定义的opener设置成全局的。


  5、设置成全局之后,如果我们再使用urlopen来发送请求,那么发送请求使用的IP地址就是代理IP,而不是本机的IP地址了。


  ET代理是国内优质的动态IP代理服务商,代理ip软件覆盖全国160多个城市、3000万海量代理IP供应,支持一键切换IP,操作简单。


相关文章内容简介