首页 > 其他分享 >GitHub 上这款新浪微博爬虫项目,‌让你轻松掌握微博数据!‌

GitHub 上这款新浪微博爬虫项目,‌让你轻松掌握微博数据!‌

时间:2024-08-31 09:37:49浏览次数:4  
标签:weibo GitHub url 爬虫 用户 微博 user id

该文章为 weibo-crawler 的官方文档,为了方便国内的同学阅读而转载。

原文地址:https://github.com/dataabc/weibo-crawler

源码我也下载了一份,读者可以在我的公众号上回复“分享资料”来获取,路径如下:

以下是正文:

功能

连续爬取一个多个新浪微博用户(如迪丽热巴郭碧婷)的数据,并将结果信息写入文件。写入信息几乎包括了用户微博的所有数据,主要有用户信息微博信息两大类,前者包含用户昵称、关注数、粉丝数、微博数等等;后者包含微博正文、发布时间、发布工具、评论数等等,因为内容太多,这里不再赘述,详细内容见输出部分。具体的写入文件类型如下:

  • 写入 csv 文件(默认)
  • 写入 json 文件(可选)
  • 写入 MySQL 数据库(可选)
  • 写入 MongoDB 数据库(可选)
  • 写入 SQLite 数据库(可选)
  • 下载用户原创微博中的原始图片(可选)
  • 下载用户转发微博中的原始图片(可选)
  • 下载用户原创微博中的视频(可选)
  • 下载用户转发微博中的视频(可选)
  • 下载用户原创微博 Live Photo 中的视频(可选)
  • 下载用户转发微博 Live Photo 中的视频(可选)
  • 下载用户原创和转发微博下的一级评论(可选)
  • 下载用户原创和转发微博下的转发(可选)

如果你只对用户信息感兴趣,而不需要爬用户的微博,也可以通过设置实现只爬取微博用户信息的功能。程序也可以实现爬取结果自动更新,即:现在爬取了目标用户的微博,几天之后,目标用户可能又发新微博了。通过设置,可以实现每隔几天增量爬取用户这几天发的新微博。具体方法见定期自动爬取微博。

输出

用户信息

  • 用户 id:微博用户 id,如"1669879400"
  • 用户昵称:微博用户昵称,如"Dear-迪丽热巴"
  • 性别:微博用户性别
  • 生日:用户出生日期
  • 所在地:用户所在地
  • 教育经历:用户上学时学校的名字
  • 公司:用户所属公司名字
  • 阳光信用:用户的阳光信用
  • 微博注册时间:用户微博注册日期
  • 微博数:用户的全部微博数(转发微博 + 原创微博)
  • 粉丝数:用户的粉丝数
  • 关注数:用户关注的微博数量
  • 简介:用户简介
  • 主页地址:微博移动版主页 url,如 https://m.weibo.cn/u/1669879400?uid=1669879400&luicode=10000011&lfid=1005051669879400
  • 头像 url:用户头像 url
  • 高清头像 url:用户高清头像 url
  • 微博等级:用户微博等级
  • 会员等级:微博会员用户等级,普通用户该等级为 0
  • 是否认证:用户是否认证,为布尔类型
  • 认证类型:用户认证类型,如个人认证、企业认证、政府认证等
  • 认证信息:为认证用户特有,用户信息栏显示的认证信息

微博信息

  • 微博 id:微博的 id,为一串数字形式
  • 微博 bid:微博的 bid,与 cookie 版中的微博 id 是同一个值
  • 微博内容:微博正文
  • 头条文章 url:微博中头条文章的 url,如果微博中存在头条文章,就获取该头条文章的 url,否则该值为''
  • 原始图片 url:原创微博图片和转发微博转发理由中图片的 url,若某条微博存在多张图片,则每个 url 以英文逗号分隔,若没有图片则值为''
  • 视频 url: 微博中的视频 url 和 Live Photo 中的视频 url,若某条微博存在多个视频,则每个 url 以英文分号分隔,若没有视频则值为''
  • 微博发布位置:位置微博中的发布位置
  • 微博发布时间:微博发布时的时间,精确到天
  • 点赞数:微博被赞的数量
  • 转发数:微博被转发的数量
  • 评论数:微博被评论的数量
  • 微博发布工具:微博的发布工具,如 iPhone 客户端、HUAWEI Mate 20 Pro 等,若没有则值为''
  • 话题:微博话题,即两个#中的内容,若存在多个话题,每个 url 以英文逗号分隔,若没有则值为''
  • @ 用户:微博 @ 的用户,若存在多个 @ 用户,每个 url 以英文逗号分隔,若没有则值为''
  • 原始微博:为转发微博所特有,是转发微博中那条被转发的微博,存储为字典形式,包含了上述微博信息中的所有内容,如微博 id、微博内容等等
  • 结果文件:保存在当前目录 weibo 文件夹下以用户昵称为名的文件夹里,名字为"user_id.csv"形式
  • 微博图片:微博中的图片,保存在以用户昵称为名的文件夹下的 img 文件夹里
  • 微博视频:微博中的视频,保存在以用户昵称为名的文件夹下的 video 文件夹里

实例

以爬取迪丽热巴的微博为例,我们需要修改 config.json 文件,文件内容如下:

{
    "user_id_list": ["1669879400"],
    "only_crawl_original": 1,
    "since_date": "1900-01-01",
    "query_list": [],
    "write_mode": ["csv"],
    "original_pic_download": 1,
    "retweet_pic_download": 0,
    "original_video_download": 1,
    "retweet_video_download": 0,
    "cookie": "your cookie"
}

对于上述参数的含义以及取值范围,这里仅作简单介绍,详细信息见程序设置。

user_id_list 代表我们要爬取的微博用户的 user_id,可以是一个或多个,也可以是文件路径,微博用户 Dear-迪丽热巴的 user_id 为 1669879400,具体如何获取 user_id 见如何获取 user_id;

only_crawl_original 的值为 1 代表爬取全部原创微博,值为 0 代表爬取全部微博(原创 + 转发);

since_date 代表我们要爬取 since_date 日期之后发布的微博,因为我要爬迪丽热巴的全部原创微博,所以 since_date 设置了一个非常早的值; query_list 代表要爬取的微博关键词,为空([])则爬取全部;

write_mode 代表结果文件的保存类型,我想要把结果写入 csv 文件和 json 文件,所以它的值为["csv", "json"],如果你想写入数据库,具体设置见设置数据库

original_pic_download 值为 1 代表下载原创微博中的图片,值为 0 代表不下载;

retweet_pic_download 值为 1 代表下载转发微博中的图片,值为 0 代表不下载;

original_video_download 值为 1 代表下载原创微博中的视频,值为 0 代表不下载;

retweet_video_download 值为 1 代表下载转发微博中的视频,值为 0 代表不下载;

cookie 是可选参数,可填可不填,具体区别见添加 cookie 与不添加 cookie 的区别

配置完成后运行程序:

python weibo.py

程序会自动生成一个 weibo 文件夹,我们以后爬取的所有微博都被存储在 weibo 文件夹里。然后程序在该文件夹下生成一个名为"Dear-迪丽热巴"的文件夹,迪丽热巴的所有微博爬取结果都在这里。"Dear-迪丽热巴"文件夹里包含一个 csv 文件、一个 img 文件夹和一个 video 文件夹,img 文件夹用来存储下载到的图片,video 文件夹用来存储下载到的视频。如果你设置了保存数据库功能,这些信息也会保存在数据库里,数据库设置见设置数据库部分。

csv 文件结果如下所示:

本 csv 文件是爬取“全部微博”(原创微博 + 转发微博)的结果文件。因为迪丽热巴很多微博本身都没有图片、发布工具、位置、话题和 @ 用户等信息,所以当这些内容没有时对应位置为空。"是否原创"列用来标记是否为原创微博, 当为转发微博时,文件中还包含转发微博的信息。为了简便起见,姑且将转发微博中被转发的原始微博称为源微博,它的用户 id、昵称、微博 id 等都在名称前加上源字,以便与目标用户自己发的微博区分。对于转发微博,程序除了获取用户原创部分的信息,还会获取源用户 id源用户昵称源微博 id源微博正文源微博原始图片 url源微博位置源微博日期源微博工具源微博点赞数源微博评论数源微博转发数源微博话题源微博 @ 用户等信息。原创微博因为没有这些转发信息,所以对应位置为空。若爬取的是"全部原创微博",则 csv 文件中不会包含"是否原创"及其之后的转发属性列;

为了说明 json 结果文件格式,这里以迪丽热巴 2019 年 12 月 27 日到 2019 年 12 月 28 日发的 2 条微博为例。

json 结果文件格式如下:

{
    "user": {
        "id": "1669879400",
        "screen_name": "Dear-迪丽热巴",
        "gender": "f",
        "birthday": "双子座",
        "location": "上海",
        "education": "上海戏剧学院",
        "company": "嘉行传媒",
        "registration_time": "2010-07-02",
        "sunshine": "信用极好",
        "statuses_count": 1121,
        "followers_count": 66395881,
        "follow_count": 250,
        "description": "一只喜欢默默表演的小透明。工作联系[email protected] 

标签:weibo,GitHub,url,爬虫,用户,微博,user,id
From: https://www.cnblogs.com/PeterJXL/p/18389861

相关文章

  • 基于大数据+爬虫+非遗推荐系统设计和实现(源码+LW+部署讲解)
     博主介绍:✌全网粉丝50W+,csdn特邀作者、博客专家、CSDN新星计划导师、Java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和学生毕业项目实战,高校老师/讲师/同行前辈交流✌技术范围:SpringBoot、Vue、SSM、HLMT、Jsp、PHP、Nodejs......
  • 基于大数据+爬虫+数据可视化的的亚健康人群数据可视化设计和实现(源码+LW+部署讲解)
     博主介绍:✌全网粉丝50W+,csdn特邀作者、博客专家、CSDN新星计划导师、Java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和学生毕业项目实战,高校老师/讲师/同行前辈交流✌技术范围:SpringBoot、Vue、SSM、HLMT、Jsp、PHP、Nodejs......
  • 百度贴吧小爬虫!(详细的不得了啊~)
    在这个信息爆炸的时代,数据成为了最宝贵的资源之一。网络爬虫,作为获取数据的重要工具,它能够自动地从互联网上抓取信息,帮助我们从海量的网页中提取有价值的数据。无论是市场研究、学术分析还是个人兴趣,掌握网络爬虫技术都能让你在数据的海洋中游刃有余。本章做的是一个比较简单......
  • 爬虫开发需要掌握的知识点
    第一篇:爬虫基本原理第二篇:环境安装与搭建第三篇:网页抓取:urllib,requests,aiohttp,selenium,Splash第四篇:网页解析:re,lxml,BeautifulSoup,pyquery第五篇:数据存储:JSON,XML,CSV,Mysql,Mongodb,Redis第六篇:高性能爬虫:第七篇:Web组件:Flask,Tornado第八篇:反爬之验证码破解:Tesserocr,滑动验证码破......
  • 第一篇:爬虫基本原理
    爬虫是什么 1、什么是互联网?互联网是由网络设备(网线,路由器,交换机,防火墙等等)和一台台计算机连接而成,像一张网一样。2、互联网建立的目的?互联网的核心价值在于数据的共享/传递:数据是存放于一台台计算机上的,而将计算机互联到一起的目的就是为了能够方便彼此之间的......
  • 全网最详细爬虫教学-刚学Python也行-方法详解-看我这篇就够了-第一节
        前言        很多人一听到爬虫脑子里就想到黑客,顶级程序员等。但其实爬虫不难,今天,我就来教大家快速入门爬虫。    requests库        说到爬虫,就不得不提request库了,它能提取静态网页源码(静态网页!!!),例如百度就是个静态网站,实战演练一下。......
  • 给Hexo博客安排上Github Action自动化部署
    我不是换hexo了吗,一直是使用SpckEditor写文章,每次写好文章都要push一次,非常麻烦,最近在群友那了解到有GithubAction自动化部署,可以写好文章自动部署到githubpages,而且github的编辑器也是非常好用的,写好提交就能自动发送,–怎么有点像SSR了–,于是我就开始了这一个半小时的折腾…......
  • 爬虫案例2-爬取视频的三种方式之一:requests篇(1)
    (目录)前言本文写了一个爬取视频的案例,使用requests库爬取了好看视频的视频,并进行保存到本地。后续也会更新selenium篇和DrissionPage篇。当然,爬取图片肯定不止这三种方法,还有基于python的scrapy框架,基于node.js的express框架以及基于Java的webmagic框架等等。爬虫步骤确定网址......
  • 一个批量爬取微博数据的神器
    100.一个批量爬取微博数据的神器分享一个能批量下载微博图片/视频/评论的工具‍起因偶尔玩玩微博,最近看到了一名专业的coser,因此想要下载一些她的微博,方便观看,也避免以后平台倒闭/博主退坑的情况导致无法看原微博。​专业coser:鲨鱼SAME‍项目介绍然后我在GitHub上搜......
  • 【愚公系列】《AIGC辅助软件开发》002-AI智能化编程助手:GitHub Copilot
    ......