Python使用scrapy采集数据时为每个请求随机分配user-agent的方法

不要沮丧,不必惊慌,做努力爬的蜗牛或坚持飞的笨鸟,我们试着长大,一路跌跌撞撞,然后遍体鳞伤。坚持着,总有一天,你会站在最亮的地方,活成自己曾经渴望的模样。

本文实例讲述了Python使用scrapy采集数据时为每个请求随机分配user-agent的方法。分享给大家供大家参考。具体分析如下:

通过这个方法可以每次请求更换不同的user-agent,防止网站根据user-agent屏蔽scrapy的蜘蛛

首先将下面的代码添加到settings.py文件,替换默认的user-agent处理模块

DOWNLOADER_MIDDLEWARES = {
'scraper.random_user_agent.RandomUserAgentMiddleware': 400,
'scrapy.contrib.downloadermiddleware.useragent.UserAgentMiddleware': None,
}

自定义useragent处理模块
from scraper.settings import USER_AGENT_LIST
import random
from scrapy import log
class RandomUserAgentMiddleware(object):
def process_request(self, request, spider):
ua = random.choice(USER_AGENT_LIST)
if ua:
request.headers.setdefault('User-Agent', ua)
#log.msg('>>>> UA %s'%request.headers)

希望本文所述对大家的Python程序设计有所帮助。

本文Python使用scrapy采集数据时为每个请求随机分配user-agent的方法到此结束。你关注什么样的人,决定你将看到什么样的世界。小编再次感谢大家对我们的支持!

您可能有感兴趣的文章
关于python scrapy中添加cookie踩坑记录

pycharm创建scrapy项目好代码教程及遇到的坑解析

Python使用scrapy爬取阳光热线问政平台过程解析

python scrapy爬虫代码及填坑

Python爬虫 scrapy框架爬取某招聘网存入mongodb解析