爬虫如何部署代理ip
这篇文章主要为大家展示了“爬虫如何部署代理ip”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“爬虫如何部署代理ip”这篇文章吧。
创新互联致力于互联网品牌建设与网络营销,包括网站设计、成都网站制作、SEO优化、网络推广、整站优化营销策划推广、电子商务、移动互联网营销等。创新互联为不同类型的客户提供良好的互联网应用定制及解决方案,创新互联核心团队十多年专注互联网开发,积累了丰富的网站经验,为广大企业客户提供一站式企业网站建设服务,在网站建设行业内树立了良好口碑。
爬虫部署代理ip的方法:
1、利用IP代理池技术,每次从IP代理池中随机选择一个IP代理来爬取数据。
import urllib.request import random #构建IP代理池 ip_pool = [ '58.221.55.58:808', '120.198.248.26:8088', '221.229.166.55:8080', '139.196.214.67:8080' ] def ip(ip_pool, url): #从IP代理池中随机选一个IP代理 ip = random.choice(ip_pool) print(ip) #格式化IP代理格 proxy = urllib.request.ProxyHandler({'http': ip}) #装入IP代理 opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler) return urllib.request.urlopen(url).read().decode('utf-8', 'ignore') data = ip(ip_pool, 'https://www.baidu.com/?tn=98010089_dg&ch=15') print(data)
2、使用IP代理池和用户代理的组合来增加访问量,更安全。利用ip代理的动态ip构建自己的代理ip池,可以保证ip的质量。
因为ip代理的ip资源是独立有效的。
import urllib.request import random import urllib.error #自定义UA_IP类,用来随机得到 def UA_IP(thisUrl): #构建用户代理池 ua_pool = [ 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.89 Safari/537.36', 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/13.0.782.41 Safari/535.1 QQBrowser/6.9.11079.201', 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; .NET4.0E)', 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0' ] #构建ip代理池 ip_pool = [ '139.196.196.74', '112.124.47.21', '61.129.70.109', '221.229.166.55' ] thisUA = random.choice(ua_pool) #从用户代理池中随机选择一个用户代理 thisIP = random.choice(ip_pool) #从IP代理池中随机选择一个IP代理 headers = ('User-Agent', thisUA) #构造报头 #将IP格式化 proxy = urllib.request.ProxyHandler({'http': thisIP}) #装入IP代理 opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler) #装入代理 opener.addheaders = [headers] #将opener设置为全局 urllib.request.install_opener(opener) #从网页爬取信息 data = urllib.request.urlopen(thisUrl).read().decode('utf-8', 'gnore') return data #网页池,后面从网页池中选择一个进行该网页信息的爬取 urls = [ 'https://mp.csdn.net/mdeditor/88323361#', 'https://mp.csdn.net/mdeditor/88144295#', 'https://mp.csdn.net/mdeditor/88144295#', 'https://mp.csdn.net/mdeditor/88081609#' ] #爬取1000次 for i in range(0, 1000): try: thisUrl = random.choice(urls) data = UA_IP(thisUrl) print(len(data)) except urllib.error.HTTPError as e: if hasattr(e, 'code'): print(e.code) if hasattr(e, 'reason'): print(e.reason)
以上是“爬虫如何部署代理ip”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!
当前名称:爬虫如何部署代理ip
链接URL:http://ybzwz.com/article/geddic.html