首页 > 数据库 >Scrapy框架与数据库整合:如何实现动态数据存储?

Scrapy框架与数据库整合:如何实现动态数据存储?

时间:2023-12-22 16:34:33浏览次数:25  
标签:存储 数据库 spider item Scrapy 动态数据 scrapy

随着互联网数据量的不断增加,如何快速、准确地爬取、处理、存储数据成为了互联网应用开发的关键问题。而Scrapy框架作为一个高效的爬虫框架,凭借其灵活、高速的爬取方式被广泛应用于各种数据爬取场景。

然而,仅仅将爬取到的数据保存到文件中,无法满足大部分应用程序的需要。因为在当前的应用程序中,大多数数据都是通过数据库来进行存储、检索和操作的。因此,如何将Scrapy框架与数据库整合,实现数据的快速动态存储就成了新的挑战。

本文将结合实际案例,介绍Scrapy框架如何进行数据库整合,并实现动态数据存储,供有需要的读者参考。

一、前置准备

在开始介绍前,本文默认读者已经了解过Python语言的基础知识以及Scrapy框架的部分使用方法,同时能够应用Python语言进行简单的数据库操作。如果您对此还不熟悉,那么建议先去学习相关知识,再来进行阅读本文。

二、选择数据库

在开始Scrapy框架与数据库整合之前,我们需要先选择一个合适的数据库,来存储我们抓取到的数据。目前常用的数据库有MySQL、PostgreSQL、MongoDB等多种选择。

这些数据库各有优缺点,根据自己的需求进行选择。例如,在数据量较小的情况下,使用MySQL数据库会更为方便,而在需要海量数据存储的情况下,MongoDB的文档型数据库更适合。

三、配置数据库连接信息

在具体操作之前,我们需要把数据库连接信息配置好。例如,以MySQL数据库为例,可以使用Python中的pymysql库进行连接。

在Scrapy中,我们一般在settings.py中进行配置:

MYSQL_HOST = 'localhost'
MYSQL_PORT = 3306
MYSQL_USER = 'root'
MYSQL_PASSWORD = '123456'
MYSQL_DBNAME = 'scrapy_demo'

 

在上面的配置中,我们配置了MySQL数据库所在的主机名、端口号、用户名、密码和数据库名称,这些信息均需要根据实际情况进行修改。

四、编写数据存储Pipeline

在Scrapy中,数据存储Pipeline是实现数据存储的关键。我们需要编写一个Pipeline类,然后在Scrapy配置文件中进行设置,以实现对数据的存储。

以存储到MySQL为例,我们可以编写一个MySQLPipeline类,如下所示:

import pymysql

class MySQLPipeline(object):

    def open_spider(self, spider):
        self.conn = pymysql.connect(host=spider.settings.get('MYSQL_HOST'),
                                    port=spider.settings.get('MYSQL_PORT'),
                                    user=spider.settings.get('MYSQL_USER'),
                                    password=spider.settings.get('MYSQL_PASSWORD'),
                                    db=spider.settings.get('MYSQL_DBNAME'))
        self.cur = self.conn.cursor()

    def close_spider(self, spider):
        self.conn.close()

    def process_item(self, item, spider):
        sql = 'INSERT INTO articles(title, url, content) VALUES(%s, %s, %s)'
        self.cur.execute(sql, (item['title'], item['url'], item['content']))
        self.conn.commit()

        return item

 

在上述代码中,我们定义了一个MySQLPipeline类,实现了对接MySQL数据库,并定义了open_spider、close_spider和process_item三个方法。

其中,open_spider方法在整个爬虫开始运行时调用,用来初始化数据库连接;close_spider方法在爬虫运行结束时调用,用来关闭数据库连接。而process_item就是每次爬取到数据后调用的方法,用来将数据存储到数据库中。

 

五、启用Pipeline

在完成了Pipeline的编写后,我们还需要在Scrapy的配置文件settings.py中启用它。只需要将Pipeline类添加到ITEM_PIPELINES变量中即可,如下所示:

ITEM_PIPELINES = {
    'myproject.pipelines.MySQLPipeline': 300,
}

 

 

在上述代码中,我们将MySQLPipeline类添加到了ITEM_PIPELINES变量中,设置了优先级为300,表示在处理Item时,该Pipeline类会是第三个被调用的。

六、测试与运行

在完成了所有的配置后,我们可以运行Scrapy爬虫,将抓取到的数据存储到MySQL数据库中。具体的步骤和命令如下:

1.进入Scrapy项目所在目录,运行以下命令创建Scrapy项目:

scrapy startproject myproject

 

2.创建一个Spider,用来测试Scrapy框架的数据存储功能,并将爬取到的数据存储到数据库中。在myproject目录中运行如下命令:

scrapy genspider test_spider baidu.com

 

上述命令将生成一个名为test_spider的Spider,对百度进行爬取。

3.编写Spider代码,在test_sprider目录的spiders目录下,打开test_sprider.py,编写爬虫代码:

import scrapy
from myproject.items import ArticleItem

class TestSpider(scrapy.Spider):
    name = "test"
    allowed_domains = ["baidu.com"]
    start_urls = [
        "https://www.baidu.com",
    ]

    def parse(self, response):
        item = ArticleItem()
        item['title'] = 'MySQL Pipeline测试'
        item['url'] = response.url
        item['content'] = 'Scrapy框架与MySQL数据库整合测试'
        yield item

 

以上代码中,我们定义了一个TestSpider类,继承自Scrapy自带的Spider类,用来处理爬虫逻辑。在parse方法中,我们构造了一个Item对象,并对其中的'content'、'url'和'title'三个关键字进行了设置。

4.在myproject目录下创建一个items文件,用于定义数据模型:

import scrapy

class ArticleItem(scrapy.Item):
    title = scrapy.Field()
    url = scrapy.Field()
    content = scrapy.Field()

 

上述代码中,我们定义了一个ArticleItem类,用来保存爬取到的文章数据。

5.测试代码:

在test_spider目录下,运行如下命令来测试你的代码:

scrapy crawl test
   

在执行上述命令后,Scrapy将会启动TestSpider爬虫,并将从百度主页抓取到的数据存储在MySQL数据库中。

七、总结

本文简要介绍了Scrapy框架如何与数据库进行整合,并实现了动态数据存储。希望本文能够帮助到有需要的读者,同时也希望读者能根据自己的实际需求进行开发,实现更加高效、快速的数据动态存储功能。

标签:存储,数据库,spider,item,Scrapy,动态数据,scrapy
From: https://www.cnblogs.com/shanhubei/p/17921893.html

相关文章

  • MySQL数据库-2
    MySQL数据库-2第09章子查询#第09章子查询SELECTlast_name,salaryFROMemployeesWHEREsalary>( SELECTsalary FROMemployees WHERElast_name='Abel' );#2.单行子查询SELECTemployee_id,manager_id,department_idFROMemployeesWHERE(manager_id,depart......
  • centos安装pg数据库
     1.下载yum源yuminstall-yhttps://download.postgresql.org/pub/repos/yum/reporpms/EL-7-x86_64/pgdg-redhat-repo-latest.noarch.rpm2.安装libzstd否则安装数据库报错Requires:libzstd.so.1()(64bit)yuminstall-ywgetwgethttps://download-ib01.fedoraproject.o......
  • 达梦数据库常用SQl语句
    1.创建表空间语句1createtablespace"表空间名"datafile'数据文件路径/表空间名.DBF'size256(初始大小)autoextendonmaxsize67108863P(设置自动增长)CACHE=NORMAL;2.创建用户1CREATEUSER"用户名"IDENTIFIEDBY"密码"HASHWITHSHA512NOSALTPASS......
  • DataSophon集成StarRocks分析数据库
    DataSophon集成StarRocks分析数据库StarRocks官方文档:StarRocks|StarRocksStarRocks下载地址:DownloadStarRocksFree|StarRocks选择自己要安装的版本下载,StarRocks-3.2.1.tar.gzwgethttps://releases.starrocks.io/starrocks/StarRocks-3.2.1.tar.gz准备StarRocks......
  • 六步走向无忧,华为云数据库高可用的秘密武器
    客户:我们的数据库最近总是出问题,有没有办法提高它的可靠性?华为:当然了,可以考虑实施数据库的高可用性策略。高可用(HA)主要是为了确保数据库在面对各种故障时仍能保持运行。客户:老板说了,极端情况下也要保证业务连续性!华为:别担心,华为云数据库高可用秘密武器,了解一下。 点击关注......
  • 厦门大学数据库实验室简介_厦门大学数据库实验室
    实验室建设了国内高校首个也是目前唯一一个“中国高校大数据课程公共服务平台”(平台官网),为教师开展大数据教学和学生学习大数据课程提供全方位、一站式免费服务,包括讲义PPT、教学大纲、备课指南、学习指南、上机习题、授课视频、技术资料等。研究方向面向当前的海量数据应用,研......
  • knex——nodejs连接数据库
    前言:最近用到了新工具knex——nodejs连接数据库,感觉很不错的库,记录一下使用过程。 一、介绍  二、配置importdotenvfrom'dotenv'dotenv.config()constConfig={client:'pg',connection:process.env.DB_URL,acquireConnectionTimeout:5000,pool:......
  • openGauss学习笔记-168 openGauss 数据库运维-备份与恢复-导入数据-使用gs_restore命
    openGauss学习笔记-168openGauss数据库运维-备份与恢复-导入数据-使用gs_restore命令导入数据168.1操作场景gs_restore是openGauss数据库提供的与gs_dump配套的导入工具。通过该工具,可将gs_dump导出的文件导入至数据库。gs_restore支持导入的文件格式包含自定义归档格式、目录......
  • PostgreSQL从入门到精通教程 - 第39讲:数据库完全恢复
       PostgreSQL从小白到专家,是从入门逐渐能力提升的一个系列教程,内容包括对PG基础的认知、包括安装使用、包括角色权限、包括维护管理、、等内容,希望对热爱PG、学习PG的同学们有帮助,欢迎持续关注CUUGPG技术大讲堂。 第39讲:数据库完全恢复 PostgreSQL第39讲:12月23日(......
  • IoTDB数据库的使用
    网址:https://iotdb.apache.org/zh/快速上手https://iotdb.apache.org/zh/UserGuide/V1.2.x/QuickStart/QuickStart.html服务端服务端的下载页面:https://iotdb.apache.org/Download/我下载了最新的1.2.2版本。下载完整后执行批处理文件:sbin\start-standalone.bat运行时报......