首页 > 其他分享 >爬虫工作量由小到大的思维转变---<第六十四章 > Scrapy利用Bloom过滤器增强爬虫的页面去重效率

爬虫工作量由小到大的思维转变---<第六十四章 > Scrapy利用Bloom过滤器增强爬虫的页面去重效率

时间:2024-03-31 18:58:57浏览次数:22  
标签:self 爬虫 --- Scrapy 内存 过滤器 第六十四章 Bloom

前言:

        网络爬虫系统是信息时代获取和管理网络数据的重要工具,广泛应用于搜索引擎索引、数据聚合、在线研究等领域。随着网络信息的海量增长,爬虫系统不可避免地会面临重复内容的爬取问题。这不仅浪费了计算资源和网络带宽,而且还会降低数据处理的效率,并可能引起网站服务的负载增加。因此,有效的去重策略对提升爬虫性能至关重要。

        去重的传统方法,如哈希表和数据库索引,虽然在小规模数据集上表现良好,但当处理大量数据时,对内存和计算能力的需求急副增长,这成为了一个技术挑战。为应对这一挑战,Bloom过滤器以其高效的空间和时间性能特性,成为了一个有力的替代方案。该数据结构允许误差出现,以显著降低内存使用,其通过多个哈希函数映射元素,在保持较低错误率的前提下,完成高速且节省空间的去重任务。然而,尽管Bloom过滤器的优势显著,它在实际的爬虫系统如Scrapy框架中的集成和应用则相对较为复杂,且鲜有文献陈述。

        因此,我将Bloom过滤器应用于Scrapy爬虫框架中的可行性和效果,对提升爬虫系统中的去重策略进行研究,期望为大家提供指导和参考。

正文:

1.系统设计与实现

1.1 对Scrapy的去重机制的分析

        Scrapy框架中的去重机制依靠DUPEFILTER来实现。DUPEFILTER作为Scrapy中的去重过滤器,用于判定抓取的URL是否被重复访问。它默认支持内存去重,使用Python的集合存储已访问的请求指纹,每个URL都会计算一个SHA1指纹存入集合中。在大型爬虫应用中,这会导致内存使用迅速增加,严重影响性能。

2.3 Bloom过滤器在Scrapy中的实现方法

        Bloom过滤器是一个空间效率极高的概率型数据结构,用于判断一个元素是否存在于一个集合之中。其基础版本由一个大型的二进制向量和一系列随机映射函数构成,每次插入或查询时,都会通过同样的哈希函数序列计算出位数组中的若干位置,并对位数组进行相应的读写操作。尽管存在一定的误判率,Bloom过滤器以牺牲准确性为代价,换取了内存使用方面的显著优势。

在Scrapy中实现Bloom过滤器作为一个新的去重组件,需要覆盖默认的DUPEFILTER。实现这一功能的步骤如下:

  1. Bloom过滤器的设计与构建:确定过滤器大小和哈希函数数量等参数,影响误差率与内存使用量。
  2. 在Scrapy项目中集成Bloom过滤器类:创建一个Bloom过滤器类,实现 request_seen 方法,用以替代原来的去重逻辑。
  3. 存储与持久化:相比于内存中纯粹的集合,需要一种方式让Bloom过滤器持久化存储,实现断点续抓功能。
  4. 性能与稳定性测试:在Scrapy项目中进行测试,评估Bloom过滤器在内存使用和去重速度上的表现。
  5. 参数调优:根据测试结果和实际需求,调整Bloom过滤器的参数,达到最佳性能与资源使用平衡。
  6. 误差处理:考虑到Bloom过滤器的误判率,设计机制处理误差产生的情况,比如通过降低误判率、或者二次检验的方法。

通过在Scrapy框架中实现Bloom过滤器,可以在不牺牲太多准确性的前提下,显著减少去重环节对资源的消耗,尤其是在内存占用方面。这改进了Scrapy爬虫在处理大规模数据时的性能,为大数据爬取、搜索引擎构建等应用场景提供了理想的解决方案。

2. 网页去重的关键问题

2.1 传统去重方法的局限性

        传统的网页去重技术,尽管在小型系统中效果良好,但在扩展至互联网规模数据时,其局限性逐渐显现。这主要表现在三个方面:

  1. 首先,依赖数据库的去重机制增加了I/O操作的时间开销,对性能造成影响;
  2. 其次,去重所需内存随着数据量增加而增加,可能超过服务器的物理内存限制;
  3. 最后,去重处理过程较慢,减缓了爬虫的爬取速度。策略如哈希表、有序数组等在处理海量数据时也面临空间与性能瓶颈。
2.2 Bloom过滤器的概率性去重及其挑战

        Bloom过滤器作为一种概率型数据结构,其在空间效率上具有明显优势。然而,概率性去重也带来了数据误判的问题,具体包括假阳性(False Positive),即非成员被错误地判断为是集合成员的情形。在实际的爬虫应用中,假阳性可能导致有效页面被错过,从而影响数据的准确性和爬虫的完整性。

2.3 解决误判和哈希函数选择的方法

        减少误判和选择适合的哈希函数对去重效果至关重要。策略包括细致调整Bloom过滤器的大小和哈希函数个数,使用多重哈希来分散元素的位置分布,选择无冲突的哈希函数以降低错误率。此外,可以预先估计数据量大小采用动态扩展策略,或者采用计数Bloom过滤器来允许删除操作,从而适应不断变化的数据集。

3. 测试与效果评估

3.1 爬取任务的设置

        为了评估并比较Bloom过滤器与传统去重策略,在实验之初应设置具有代表性的爬取任务。任务设定应尽可能模拟真实世界的网页爬取,设置爬取深度、目标网站量级和爬取频率等参数,并确保两种策略在相同的任务设置下进行。

3.2 传统去重与Bloom过滤器去重的对比实验

        对比实验是通过在同一爬取任务设置下,运行两种去重机制,并记录其性能表现。对于传统去重方法,记录数据结构的增长情况、内存使用量、去重判断所需的平均时间。对于Bloom过滤器,则关注假阳性率、内存使用效率和处理速度。

3.3 评估指标:内存使用、准确性、爬取速度

对爬取过程的评价主要基于以下模标:

  • 内存使用:量化两种方法在处理大规模数据集时的内存消耗。
  • 准确性:分析假阳性的发生率,以及如何影响爬取的质量和覆盖面。
  • 爬取速度:评价实际爬取效率,统计处理每个URL或者页面的平均时间。

这些评估指标对于优化爬虫,平衡资源消耗和数据准确性具有重要意义。通过这些指标,可以判断Bloom过滤器在实际网页去重任务中的实用性,并为未来的优化工作提供依据。

4. 案例分析

4.1 实际爬取项目中的应用

        在现实世界的爬取项目中,例如挖掘特定领域的新闻数据,去重变得至关重要。考虑一个使用Scrapy进行新闻网站爬取的项目,该项目中,我们使用Python实现了一个高效的Bloom过滤器,并将其集成到Scrapy的去重中间件中。

# Python中Bloom过滤器的一个简单实现
class BloomFilter:
    def __init__(self, size, hash_count):
        self.bit_array = bitarray(size)
        self.bit_array.setall(0)
        self.size = size
        self.hash_count = hash_count

    def add(self, url):
        points = [self.hash_n(url, n) for n in range(self.hash_count)]
        for b in points:
            self.bit_array[b] = 1

    def contains(self, url):
        points = [self.hash_n(url, n) for n in range(self.hash_count)]
        return all(self.bit_array[b] for b in points)

    def hash_n(self, item, n):
        return (hash1(item) + n * hash2(item)) % self.size
        
# Scrapy中间件利用Bloom过滤器
from scrapy.dupefilters import BaseDupeFilter

class BloomDupeFilter(BaseDupeFilter):
    def __init__(self, path=None, debug=False):
        self.bloom_filter = BloomFilter(size=100000, hash_count=3)

    def request_seen(self, request):
        if self.bloom_filter.contains(request.url):
            return True
        self.bloom_filter.add(request.url)
        return False

        首先创建了一个Bloom过滤器的类,通过使用两个哈希函数生成了多个散列表索引,并且在处理URL去重时使用这些索引。接着,我们在Scrapy框架中实现了Bloom过滤器作为一个去重的中间件组件,使Scrapy在进行网页爬取时,可以通过Bloom过滤器来检查每个请求是否唯一。

4.2 性能提升的分析

        在任何爬虫项目中,性能是一个核心考量。使用Bloom过滤器作为去重机制,能显著减少内存的占用,同时也加快了去重检查的效率。通过实施时间和空间的对比测试,我们可以量化Bloom过滤器带来的性能提升。例如,在爬取具有一百万个唯一页面的新闻网站时,相较于传统去重数据结构(如Python集合),Bloom过滤器能够降低内存用量高达90%以上,同时保持合理的误判率(一般小于1%)。

4.3 正误判数据的处理

尽管Bloom过滤器提供了卓越的性能,它天生的误判率也带来了新的挑战。在实际项目中采用后处理措施,例如:

# 如果Bloom过滤器判断URL已看到,可用二级检验如数据库查询确认
if bloom_filter.contains(request.url):
    if not database.contains(request.url):
        process_request(request)

这种二级验证策略,即使在Bloom过滤器发生误判时也能保证重要页面不会被忽略。同时,误判处理策略需要记录下所有的误判实例,并通过日志揭示模式,为将来调整Bloom过滤器的参数提供数据支持。

5. Bloom过滤器的应用案例

5.1 配置Bloom过滤器设置

        在Scrapy项目中配置Bloom过滤器,首先需要确定参数设置,包括位数组的大小和哈希函数的个数。这些参数的设定应根据预期抓取的URL数量以及可接受的误判率作出决定。举例说,如果想要爬取大约一百万个URL,而将误判率控制在1%以下,可以使用以下配置:

# 100万个元素,误判率0.01的Bloom过滤器参数
# 这些参数可以使用在线Bloom过滤器计算器获得
bloom_filter_size = 9585058  
hash_count = 7

有了这些参数,我们便可以在Scrapy项目中集成Bloom过滤器。具体实现方式如下:

from bitarray import bitarray
import mmh3

class BloomFilter:
    # ... 前面的BloomFilter类实现

    def hash_n(self, item, n):
        return mmh3.hash(item, n) % self.size

class CustomDupeFilter(BaseDupeFilter):
    # ... 前面的BloomDupeFilter类实现

# scrapy项目的设置.py
DUPEFILTER_CLASS = 'myproject.custom_filters.CustomDupeFilter'
5.2 在Scrapy Request去重

在Scrapy项目中,当调度器从爬虫发出的请求接收到一个新请求时,去重中间件首先检查这个请求是否被Bloom过滤器看到过。若已经被看到,则该请求被视为重复,否则它将被添加到过滤器中并继续正常处理。

class CustomSpider(scrapy.Spider):
    name = 'custom_spider'

    def start_requests(self):
        # 初始化请求
        for url in self.start_urls:
            yield scrapy.Request(url, self.parse, dont_filter=True)

    def parse(self, response):
        # 处理响应

此时,任何经过CustomDupeFilter被标记为重复的请求都不会交给parse方法处理。

5.3 在Item Pipeline去重

对于已经收集的数据,可能会出现多个请求生成相似或重复的Item。在Item Pipeline环节,Bloom过滤器同样可以进行去重处理,例如:

class ItemPipeline:
    def __init__(self):
        self.filter = BloomFilter(size=bloom_filter_size, hash_count=hash_count)
        
    def process_item(self, item, spider):
        item_unique_str = item['unique_attribute']
        if self.filter.contains(item_unique_str):
            raise DropItem("Duplicate item found: %s" % item)
        else:
            self.filter.add(item_unique_str)
            # 进行后续pipeline process...
            return item

在这个例子中,我们依据项的唯一属性,结合Bloom过滤器执行去重检测。如果发现重复项,将其丢弃,否则将其传递到pipeline的下一个阶段。

综上所述,Bloom过滤器在Scrapy中的应用,可以有效地实现请求级和项级的去重功能,从而提高整个爬虫项目的效率和数据质量。实践中的应用案例展示了Bloom过滤器如何在Scrapy项目的不同阶段提供去重功能,并且如何通过合理的参数配置来优化其性能和使用效果。

总结:

        网络爬虫在处理大规模数据时面临内存和性能挑战,传统的去重方法显得力不从心。Bloom过滤器凭借高空间效率和时间效率的优点,提出了一个解决方案,虽然它引入了概率性误判的可能性,但在许多应用场景中其优势仍然显著。

        从Scrapy的默认去重机制出发,深入到Bloom过滤器的实现,并将其集成至Scrapy,展现了在实际爬虫项目中的应用如何大幅提高去重效率,降低资源消耗。通过参数调优、存储策略、稳定性测试等多维度分析和实践探索,我们得出了对比传统方法时Bloom过滤器所带来的显著性能提升的结论。尤其在系统资源有限、数据量巨大的背景下,Bloom过滤器表现出巨大的应用潜力和拓展前景。

        最后,通过具体案例分析和应用示例,说明了如何在Scrapy项目中配置和运用Bloom过滤器来去重请求和项目,确保了数据的唯一性、准确性以及爬取效率!

标签:self,爬虫,---,Scrapy,内存,过滤器,第六十四章,Bloom
From: https://blog.csdn.net/m0_56758840/article/details/137204039

相关文章

  • 便民查询 - C++也能写H5应用
    这款应用是我和我的一位粉丝共创,他还在读大二,刚学了C++,他一直都想找个靠谱的项目练练手,刚好我准备做一款便民查询的应用,当然这个应用如果用C++来写后端,会有一种大炮打蚊子的感觉,C++也不适合做APP开发,开发效率和debug容易度都比其他的高级语言差一截。但是由于他想找个项目练手,我......
  • 03-数据库的用户管理
    一、创建新用户mysql>createuserxjzw@'10.0.0.%'identifiedby'1';QueryOK,0rowsaffected(0.01sec)二、查看当前数据库正在登录的用户mysql>selectuser();+----------------+|user()    |+----------------+|root@localhost|+-----------......
  • 【YOLOv5改进系列(9)】高效涨点----使用CAM(上下文增强模块)替换掉yolov5中的SPPF模块
    文章目录......
  • java-飞机大战(源代码)
    今天来更新我的飞机大战了,是参考尚学堂写的,有需要的小伙伴可以直接来取,关于state=2时以及state=3时的运行时可能不太优化,下周我会更新代码的. 1.整个游戏的主窗口以及游戏方法importjavax.swing.*;importjava.awt.*;importjava.awt.event.KeyAdapter;importjav......
  • Java-数据类型
    前言:本文主要讲述八大数据类型以及使用规范,最后对知识进行一个拓展。强类型语言要求变量使用要严格符合规定,所有变量都必须先定义后才能使用弱类型语言基本类型(primitivetype)引用类型(referencetype)*不规范的*规范的*如下面这种定义变量是可以成功:*注意事项:......
  • Linux内核数据管理利器--红黑树
    目录写在前面1.红黑树的原理2.红黑树操作2.1红黑树的节点插入2.2红黑树的节点删除2.3红黑树的查询操作3.红黑树操作实验附录A:实验代码写在前面本文通过两个方面让读者可以深入理解Linux内核中红黑树RBTree的实现以及使用,读完此文章,你可以收获:红黑树的特性红黑树的......
  • 涛哥聊Python | auto-sklearn,一个非常好用的 Python 库!
    本文来源公众号“涛哥聊Python”,仅用于学术分享,侵权删,干货满满。原文链接:auto-sklearn,一个非常好用的Python库!大家好,今天为大家分享一个非常好用的Python库-auto-sklearn。Github地址:https://github.com/automl/auto-sklearn随着机器学习技术的快速发展,越来越多的组......
  • 数据下钻--vue+springboot+echarts
    今天下午整了下数据下钻直接上成果: 然后左边可以选范围:左边调范围,然后对应的会显示那些省份满足条件。 然后就是鼠标悬停在某个省份,就显示相应数量: 然后可以点击对应省份进行下钻到市然后可以继续下钻到县:  同样的呢,市和县都可以向省一样那样显示范围和调试: ......
  • python --图(树)的存储
    在蓝桥杯竞赛中,常见的图存储方式包括邻接矩阵、邻接表、链式前向星等。这些存储方式在不同的场景下有着各自的优势和适用性。邻接矩阵邻接矩阵是最常见的图的表示方法之一。对于一个有$n$个顶点的图,可以用一个$n\timesn$的二维数组来表示。如果图中存在从顶点$i$到顶点$j$的边......
  • 03-【HAL库】STM32实现SYN6288模块语音播报.md
    一、什么是SYN6288模块1、概述​ SYN6288中文语音合成芯片是北京宇音天下科技有限公司于2010年初推出的一款性/价比更高,效果更自然的一款中高端语音合成芯片。SYN6288通过异步串口(UART)通讯方式,接收待合成的文本数据,实现文本到语音(或TTS语音)的转换。​ 宇音天下于2002年最......