程序员最近都爱上了这个网站  程序员们快来瞅瞅吧!  it98k网:it98k.com

本站消息

站长简介/公众号

  出租广告位,需要合作请联系站长

+关注
已关注

分类  

暂无分类

标签  

暂无标签

日期归档  

scrapy-redis数据去重与分布式框架

发布于2019-08-05 11:08     阅读(664)     评论(0)     点赞(4)     收藏(4)


 

数据去重

  • 生成指纹:利用hashlib的sha1,对request的请求体、请求url、请求方法进行加密,返回一个40位长度的16进制的字符串,称为指纹
fp = hashlib.sha1()
fp.update(to_bytes(request.method))
fp.update(to_bytes(canonicalize_url(request.url)))
fp.update(request.body or b'')
return fp.hexdigest()
  • 进队:(队列对requests对象去重,zset对指纹去重)
    1. 如果请求需要过滤,并且当前请求的指纹已经在指纹集合中存在了,就不能进入队列了
    2. 如果请求需要过滤,并且请求的指纹是一个新的指纹,进入队列
    3. 如果不需要过滤,直接进入队列
def enqueue_request(self, request):
    if not request.dont_filter and self.df.request_seen(request):
        self.df.log(request, self.spider)
        return False
    self.queue.push(request)
    return True

 

 

分布式爬虫

  • 类继承RedisSpider、RedisCrawlSpider
  • 使用redis_key,在redis数据库中存储start_urls的键名称

每台电脑从redis数据库中对应的redis_key名称中获取url,发起请求。



所属网站分类: 技术文章 > 博客

作者:小乖乖

链接:https://www.pythonheidong.com/blog/article/4221/8b22e5f99de7f2ac54db/

来源:python黑洞网

任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任

4 0
收藏该文
已收藏

评论内容:(最多支持255个字符)