首页 > 其他分享 >爬取B站热门视频并进行可视化分析

爬取B站热门视频并进行可视化分析

时间:2023-06-10 20:56:29浏览次数:25  
标签:bilibili plt df list 热门 爬取 可视化 https com

(一)选题背景
爬虫是从互联网上抓取对于我们有价值的信息。选择此题正是因为随着信息化的发展,大数据时代对信息的采需求和集量越来越大,相应的处理量也越来越大,正是因为如此,爬虫相应的岗位也开始增多,因此,学好这门课也是为将来就业打下扎实的基础。bilibili在当今众多视频网站中,有许多年轻人都在使用这个软件,通过爬取其中热门视频爬取b站热门视频的各各板块,从播放量,点赞数,弹幕数,分享数,投币数,收藏数,分析当代年轻人对什么类型的视频更加喜爱

(二)主题式网络爬虫设计方案

1.主题式网络爬虫名称:

爬取B站热门视频并进行可视化分析

2.主题式网络爬虫爬取的内容与数据特征分析

内容:爬取b站热门视频的各各板块,从播放量,点赞数,弹幕数,分享数,投币数,收藏数进行可视化分析

特征分析:对播放量,点赞数,弹幕数,分享数,投币数,收藏数计数,然后进行可视化

3.主题式网络爬虫设计方案概述

思路:爬取数据,进行可视化。

难点:词云生成产生错误

(三)数据源

爬取数据地址:

https://www.bilibili.com Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/13.0.3 Safari/605.1.15 https://www.bilibili.com/v/popular/rank/all

(四)具体步骤

爬取数据

解析数据源网页

 

 

可以看到,页面分为不同的版块,包括全站、番剧、国产动面等等。用Chrome浏览器,右键打开开发者模式,选择网络->XHR这个选项,重新刷新一下页面,依次查看每个链接的预览内容,通过链接返回的数据,找出目标

 

爬取代码

导入库
import requests
import pandas as pd

确定url地址

url_dict = {
    '全站': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=0&type=all',
    # '番剧': 'https://api.bilibili.com/pgc/web/rank/list?day=3&season_type=1',  #
    # '国产动画': 'https://api.bilibili.com/pgc/season/rank/web/list?day=3&season_type=4',  #
    # '国创相关': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=168&type=all',  #
    # '纪录片': 'https://api.bilibili.com/pgc/season/rank/web/list?day=3&season_type=3',  #
    '动画': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=1&type=all',
    '音乐': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=3&type=all',
    '舞蹈': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=129&type=all',
    '游戏': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=4&type=all',
    '知识': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=36&type=all',
    '科技': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=188&type=all',
    '运动': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=234&type=all',
    '汽车': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=223&type=all',
    '生活': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=160&type=all',
    '美食': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=211&type=all',
    '动物圈': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=217&type=all',
    '鬼畜': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=119&type=all',
    '时尚': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=155&type=all',
    '娱乐': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=5&type=all',
    '影视': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=181&type=all',
    # # '电影': 'https://api.bilibili.com/pgc/season/rank/web/list?day=3&season_type=2',  #
    # # '电视剧': 'https://api.bilibili.com/pgc/season/rank/web/list?day=3&season_type=5',  #
    '原创': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=0&type=origin',
    '新人': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=0&type=rookie',
}

伪装

headers = {
    'Accept': 'application/json, text/plain, */*',
    'Origin': 'https://www.bilibili.com',
    'Host': 'api.bilibili.com',
    'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/13.0.3 Safari/605.1.15',
    'Accept-Language': 'zh-cn',
    'Connection': 'keep-alive',
    'Referer': 'https://www.bilibili.com/v/popular/rank/all'
}

获得数据

for i in url_dict.items():
    url = i[1]  # url地址
    tab_name = i[0]  # tab页名称
    title_list = []
    play_cnt_list = []  # 播放数
    danmu_cnt_list = []  # 播放数
    coin_cnt_list = []  # 投币数
    like_cnt_list = []  # 点赞数
    dislike_cnt_list = []  # 点踩数
    share_cnt_list = []  # 分享数
    favorite_cnt_list = []  # 收藏数
    author_list = []
    score_list = []
    video_url = []

 

然后,经过分析返回数据的json格式 然后,经过分析返回数据的json格式

r = requests.get(url, headers=headers)
print(r.status_code)
# pprint(r.content.decode('utf-8'))
# r.encoding = 'utf-8'
# pprint(r.json())
json_data = r.json()
list_data = json_data['data']['list']
for data in list_data:
title_list.append(data['title'])
play_cnt_list.append(data['stat']['view'])
danmu_cnt_list.append(data['stat']['danmaku'])
coin_cnt_list.append(data['stat']['coin'])
like_cnt_list.append(data['stat']['like'])
dislike_cnt_list.append(data['stat']['dislike'])
share_cnt_list.append(data['stat']['share'])
favorite_cnt_list.append(data['stat']['favorite'])
author_list.append(data['owner']['name'])
score_list.append(data['score'])
video_url.append('https://www.bilibili.com/video/' + data['bvid'])
print('*' * 30)
except Exception as e:
print("爬取失败:{}".format(str(e)))
 

最后,将DataFrame数据保存到excel

df = pd.DataFrame(
        {'视频标题': title_list,
         '视频地址': video_url,
         '作者': author_list,
         '综合得分': score_list,
         '播放数': play_cnt_list,
         '弹幕数': danmu_cnt_list,
         '投币数': coin_cnt_list,
         '点赞数': like_cnt_list,
         '点踩数': dislike_cnt_list,
         '分享数': share_cnt_list,
         '收藏数': favorite_cnt_list,
         })
    df.to_csv('B站TOP100-{}.csv'.format(tab_name), encoding='utf_8_sig')  # utf_8_sig修复乱码问题
    print('写入成功: ' + 'B站TOP100-{}.csv'.format(tab_name))
df = pd.read_csv(csv)

查看结果

爬取的模块

模块查看

 数据可视话分析

导入库

import pandas as pd
import matplotlib.pyplot as plt
from wordcloud import ImageColorGenerator, WordCloud  
import numpy as np
from PIL import Image

 

数据读取

df = pd.read_csv(csv)

数据概览,用shape查看数据形状

df.shape

用head查看前5行

df.head(5)

 用info查看信息

df.info()

用describe查看统计性分析

df.describe()

 数据清洗

查看是否存在真空值

df.isna().any()

 每一列都是False没有空值

查看是否存在重复值

df.duplicated().any()

 看到False没有重复值

删除没有列

df.drop(['点踩数', '综合得分'], axis=1, inplace=True)

因为其踩点都是0所以没有意义

删除后查看结果

 可视化分析

数据中,有播放数、弹幕数、投币数、点赞数、分享数、收藏数等众多数据指标。我想分析出,这些指标中,谁和综合得分的关系最大,决定性最高。 数据中,有播放数、弹幕数、投币数、点赞数、分享数、收藏数等众多数据指标.我想分析出,这些指标中,谁和综合得分的关系最大,决定性最高.
直接采用pandas自带的corr函数,得出相关性(spearman相关)矩阵: 直接采用自带的corr函数,得出相关性(Spearman相关)矩阵:

 

 

df_corr.corr(method='spearman')

 

可以看出,点赞数和综合得分的相关性最高,达到了0.56。 可以看出,点赞数和综合得分的相关性最高,达到了0.56。
根据此分析结论,进一步画出点赞数和综合得分的分布散点图,验证此结论的正确性。 根据此分析结论,进一步画出点赞数和综合得分的分布散点图,验证此结论的正确性.

plt.figure(figsize=(20, 8))  
plt.title('相关性分析: 播放数x点赞数', fontdict={'size': 20})  
plt.xlabel('点赞数')  
plt.ylabel('播放数')  
plt.scatter(x, y)  
plt.savefig('相关性分析-散点图.png')

 

 

 

得出结论:随着点赞数增多,综合得分呈明显上升趋势,进一步得出,二者存在正相关的关系。 得出结论:随着点赞数增多,综合得分呈明显上升趋势,进一步得出,二者存在正相关的关系.

饼图

综合得分划分分布区间,绘制出分布饼图。首先,划分数据区间: 综合得分划分分布区间,绘制出分布饼图.首先,划分数据区间:

bins = [0, 1500000, 2000000, 2500000, 3000000, 10000000]
labels = [
    '0-150w',
    '150w-200w',
    '200w-250w',
    '250w-300w',
    '300w-1000w'
]

绘制饼图

segments = pd.cut(score_list, bins, labels=labels)  
counts = pd.value_counts(segments, sort=False).values.tolist()  
plt.figure(figsize=(20, 8))  
plt.pie(counts,
        labels=labels,  
        colors=['cyan', 'yellowgreen', 'lightskyblue',
                'aquamarine', 'aliceblue'],  
        # explode=(0.15, 0, 0, 0, 0),  
        autopct='%.2f%%',  
        )
plt.title("播放数-分布饼图")
plt.savefig('播放数-饼图.png')

 

得出结论:综合得分在0至150w这个区间的视频最多,有62个视频(占比62%) 得出结论:综合得分在0 至150 W这个区间的视频最多,有62个视频(占比62%)

箱形图

把这几个数据指标,绘制在同一张图里

 

df_play = df['播放数']
df_danmu = df['弹幕数']
df_coin = df['投币数']
df_like = df['点赞数']
df_share = df['分享数']
df_fav = df['收藏数']
plt.figure(figsize=(20, 8))  
plt.title('数据分布-箱型图', fontdict={'size': 20})
plt.boxplot([  
    df_play,
    df_danmu,
    df_coin,
    df_like,
    df_share,
    df_fav,
], labels=[
    '播放数',
    '弹幕数',
    '投币数',
    '点赞数',
    '分享数',
    '收藏数',
])
plt.ylabel('数量')
plt.savefig('箱型图分析_一张图.png')  

由于播放数远远大于其他数据指标,不在一个数量级,导致其他数据指标的box都挤到一块了,可视化效果很差,所以,每个box画到一个图里,避免这种情况的发生

plt.figure(figsize=(20, 8))  
plt.subplot(2, 3, 1)
plt.boxplot(df_play)
plt.title('播放数')
plt.subplot(2, 3, 2)
plt.boxplot(df_danmu)
plt.title('弹幕数')
plt.subplot(2, 3, 3)
plt.boxplot(df_coin)
plt.title('投币数')
plt.subplot(2, 3, 4)
plt.boxplot(df_like)
plt.title('点赞数')
plt.subplot(2, 3, 5)
plt.boxplot(df_share)
plt.title('分享数')
plt.subplot(2, 3, 6)
plt.boxplot(df_fav)
plt.title('收藏数')
plt.suptitle("各指标数据分布-箱型图", fontsize=20)
plt.savefig('箱型图分析_多张图.png')  

 

得出结论:每个数据指标都存在极值的情况(最大值距离box很远),数据比较离散,方差较大。

词云图

author_list = df['作者'].values.tolist()
author_str = ' '.join(author_list)
stopwords = []  
coloring = np.array(Image.open("背景图.jpeg"))
backgroud_Image = coloring  
wc = WordCloud(
    scale=5,  
    margin=0,  
    background_color="black",  
    max_words=1200,  
    width=200,  
    height=200,  
    font_path='C:\Windows\Fonts\simsunb.ttf',  
    stopwords=stopwords,  
    mask=backgroud_Image,  
    color_func=ImageColorGenerator(coloring),  
    random_state=800 
)
wc.generate_from_text(author_str)  
wc.to_file('视频作者_词云图.png')  
print('图片已生成: 视频作者_词云图.png')

 词云出现了错误无法显示中文而产生问题出在

font_path='C:\Windows\Fonts\simsunb.ttf', 

(五)总代码

import requests
import pandas as pd

url_dict = {
    '全站': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=0&type=all',
    # '番剧': 'https://api.bilibili.com/pgc/web/rank/list?day=3&season_type=1',  #
    # '国产动画': 'https://api.bilibili.com/pgc/season/rank/web/list?day=3&season_type=4',  #
    # '国创相关': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=168&type=all',  #
    # '纪录片': 'https://api.bilibili.com/pgc/season/rank/web/list?day=3&season_type=3',  #
    '动画': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=1&type=all',
    '音乐': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=3&type=all',
    '舞蹈': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=129&type=all',
    '游戏': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=4&type=all',
    '知识': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=36&type=all',
    '科技': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=188&type=all',
    '运动': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=234&type=all',
    '汽车': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=223&type=all',
    '生活': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=160&type=all',
    '美食': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=211&type=all',
    '动物圈': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=217&type=all',
    '鬼畜': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=119&type=all',
    '时尚': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=155&type=all',
    '娱乐': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=5&type=all',
    '影视': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=181&type=all',
    # # '电影': 'https://api.bilibili.com/pgc/season/rank/web/list?day=3&season_type=2',  #
    # # '电视剧': 'https://api.bilibili.com/pgc/season/rank/web/list?day=3&season_type=5',  #
    '原创': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=0&type=origin',
    '新人': 'https://api.bilibili.com/x/web-interface/ranking/v2?rid=0&type=rookie',
}
headers = {
    'Accept': 'application/json, text/plain, */*',
    'Origin': 'https://www.bilibili.com',
    'Host': 'api.bilibili.com',
    'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/13.0.3 Safari/605.1.15',
    'Accept-Language': 'zh-cn',
    'Connection': 'keep-alive',
    'Referer': 'https://www.bilibili.com/v/popular/rank/all'
}

for i in url_dict.items():
    url = i[1]  
    tab_name = i[0]  
    title_list = []
    play_cnt_list = []  
    danmu_cnt_list = []  
    coin_cnt_list = []  
    like_cnt_list = []  
    dislike_cnt_list = []  
    share_cnt_list = []  
    favorite_cnt_list = []  
    author_list = []
    score_list = []
    video_url = []
    try:
        r = requests.get(url, headers=headers)
        print(r.status_code)
        # pprint(r.content.decode('utf-8'))
        # r.encoding = 'utf-8'
        # pprint(r.json())
        json_data = r.json()
        list_data = json_data['data']['list']
        for data in list_data:
            title_list.append(data['title'])
            play_cnt_list.append(data['stat']['view'])
            danmu_cnt_list.append(data['stat']['danmaku'])
            coin_cnt_list.append(data['stat']['coin'])
            like_cnt_list.append(data['stat']['like'])
            dislike_cnt_list.append(data['stat']['dislike'])
            share_cnt_list.append(data['stat']['share'])
            favorite_cnt_list.append(data['stat']['favorite'])
            author_list.append(data['owner']['name'])
            score_list.append(data['score'])
            video_url.append('https://www.bilibili.com/video/' + data['bvid'])
            print('*' * 30)
    except Exception as e:
        print("爬取失败:{}".format(str(e)))

    df = pd.DataFrame(
        {'视频标题': title_list,
         '视频地址': video_url,
         '作者': author_list,
         '综合得分': score_list,
         '播放数': play_cnt_list,
         '弹幕数': danmu_cnt_list,
         '投币数': coin_cnt_list,
         '点赞数': like_cnt_list,
         '点踩数': dislike_cnt_list,
         '分享数': share_cnt_list,
         '收藏数': favorite_cnt_list,
         })
    df.to_csv('B站TOP100-{}.csv'.format(tab_name), encoding='utf_8_sig') 
    print('写入成功: ' + 'B站TOP100-{}.csv'.format(tab_name))
df = pd.read_csv(csv)
import pandas as pd
import matplotlib.pyplot as plt
from wordcloud import ImageColorGenerator, WordCloud  
import numpy as np
from PIL import Image


plt.style.use('seaborn')


plt.rcParams['font.sans-serif'] = ['SimHei']  
plt.rcParams['axes.unicode_minus'] = False  


csv = 'B站TOP100-全站.csv'

df = pd.read_csv(csv)



print(df.shape)
print(df.head(5))
print(df.info())
print(df.describe())
print(df.isna().any())
print(df.duplicated().any())
print('columns:')
print(df.columns)
df.drop(['点踩数', '综合得分'], axis=1, inplace=True)  
print('删除后的columns:')
print(df.columns)

df_corr = df[['播放数', '弹幕数', '投币数', '点赞数', '分享数', '收藏数']]

print('相关性矩阵:')
print(df_corr.corr(method='spearman'))

x = df['点赞数']
y = df['播放数']

plt.figure(figsize=(20, 8))  
plt.title('相关性分析: 播放数x点赞数', fontdict={'size': 20})  
plt.xlabel('点赞数')  
plt.ylabel('播放数')  
plt.scatter(x, y)  
plt.savefig('相关性分析-散点图.png')  
# plt.show()  

score_list = df['播放数'].values.tolist()

bins = [0, 1500000, 2000000, 2500000, 3000000, 10000000]

labels = [
    '0-150w',
    '150w-200w',
    '200w-250w',
    '250w-300w',
    '300w-1000w'
]

segments = pd.cut(score_list, bins, labels=labels)  
counts = pd.value_counts(segments, sort=False).values.tolist()  
plt.figure(figsize=(20, 8))  
plt.pie(counts,
        labels=labels,  
        colors=['cyan', 'yellowgreen', 'lightskyblue',
                'aquamarine', 'aliceblue'],  
        # explode=(0.15, 0, 0, 0, 0),  
        autopct='%.2f%%',  
        )
plt.title("播放数-分布饼图")
plt.savefig('播放数-饼图.png')  
# plt.show()  



df_play = df['播放数']
df_danmu = df['弹幕数']
df_coin = df['投币数']
df_like = df['点赞数']
df_share = df['分享数']
df_fav = df['收藏数']
plt.figure(figsize=(20, 8))  
plt.title('数据分布-箱型图', fontdict={'size': 20})
plt.boxplot([  
    df_play,
    df_danmu,
    df_coin,
    df_like,
    df_share,
    df_fav,
], labels=[
    '播放数',
    '弹幕数',
    '投币数',
    '点赞数',
    '分享数',
    '收藏数',
])
plt.ylabel('数量')
plt.savefig('箱型图分析_一张图.png')  
# plt.show()  


plt.figure(figsize=(20, 8))  
plt.subplot(2, 3, 1)
plt.boxplot(df_play)
plt.title('播放数')
plt.subplot(2, 3, 2)
plt.boxplot(df_danmu)
plt.title('弹幕数')
plt.subplot(2, 3, 3)
plt.boxplot(df_coin)
plt.title('投币数')
plt.subplot(2, 3, 4)
plt.boxplot(df_like)
plt.title('点赞数')
plt.subplot(2, 3, 5)
plt.boxplot(df_share)
plt.title('分享数')
plt.subplot(2, 3, 6)
plt.boxplot(df_fav)
plt.title('收藏数')
plt.suptitle("各指标数据分布-箱型图", fontsize=20)
plt.savefig('箱型图分析_多张图.png')  # 保存图片
# plt.show()


author_list = df['作者'].values.tolist()

author_str = ' '.join(author_list)
stopwords = []  
coloring = np.array(Image.open("背景图.jpeg"))
backgroud_Image = coloring  
wc = WordCloud(
    scale=5,  
    margin=0,  
    background_color="black",  
    max_words=1200,  
    width=200,  
    height=200,  
    font_path='C:\Windows\Fonts\simsunb.ttf',  
    stopwords=stopwords,  
    mask=backgroud_Image,  
    color_func=ImageColorGenerator(coloring),  
    random_state=800  
)
wc.generate_from_text(author_str)  
wc.to_file('视频作者_词云图.png')  
print('图片已生成: 视频作者_词云图.png')

 

标签:bilibili,plt,df,list,热门,爬取,可视化,https,com
From: https://www.cnblogs.com/qq1501036850zsr/p/17471920.html

相关文章

  • 「AntV」路网数据获取与L7可视化
    1.引言L7地理空间数据可视分析引擎是一种基于WebGL技术的地理空间数据可视化引擎,可以用于实现各种地理空间数据可视化应用。L7引擎支持多种数据源和数据格式,包括GeoJSON、CSV等,可以快速加载和渲染大规模地理空间数据。L7引擎还提供了丰富的可视化效果和交互功能,包括热力图......
  • Python文件操作与matplotlib数据可视化案例一则
    问题描述:某商场开业三个月后,有顾客反应商场一楼的手机信号不好,个别收银台有时无法正常使用微信支付或支付宝,商场内也有些位置无法正常使用微信。为此,商场安排工作人员在不同位置对手机信号强度进行测试以便进一步提高服务质量和用户体验,测试数据保存于文件“D:\服务质量保证\商场一......
  • python网络爬虫--爬取各省GDP
    一、选题背景1.随着经济全球化的日益深入发展,各国的经济发展也日益重要。在中国,省份是经济发展的基本单位,各省之间经济发展水平的差异较大。了解各省份GDP的数据情况,对于政府部门制定地区经济政策、企业拓展市场等具有重要的参考意义。2.因此,通过Python爬取各省份GPD数据,可......
  • Python借助百度搜索引擎爬取Python小屋密切相关文章
    封面图片:《Python程序设计实验指导书》(ISBN:9787302525790),董付国,清华大学出版社=============第一步,查看本机Chrome浏览器版本。第二步,下载正确版本的Chrome浏览器驱动然后放到Python安装目录中,同时确保Python安装目录在系统环境变量Path中,下载地址为http://chromedriver.storage.go......
  • Python爬取并简单分析2024年普通高校招生专业(专业类)选考科目要求
    任务描述:使用Python语言编写网络爬虫程序,采集山东省考试院发布的2024年普通高校招生专业(专业类)选考科目要求,然后统计不同要求的本科专业数量和专科专业数量。网页源代码分析与爬虫程序原理请参考:Python爬取2021年拟在山东招生普通高校专业(类)选考科目要求Python采集全国高校2020年拟......
  • python爬虫——爬取前程无忧网站招聘信息
    项目概要网络爬虫通常被称为爬虫,是搜索引擎的重要组成部分。随着信息技术的飞速进步,作为搜索引擎的一个组成部分,爬虫一直是研究的热点,它为大数据时代提供了数据支撑。而数据分析正是利用爬取的数据进行分析得到有益结论,通常的手段便是进行可视化分析。本项目爬取前程无忧网站,选取......
  • 印度人口超过中国?python可视化分析一波
    印度人口超过中国?python可视化分析一波哈喽大家好,我是AI小智,今天带大家了解下在Python中装饰器的使用前言印度和中国是世界上人口最多的两个国家,它们的人口变化对全球经济、社会和环境都有重要影响。根据联合国《2022年世界人口展望》报告²,印度人口将在今年4月中旬超过中国......
  • 怎么样的中视频才能上热门
    在进行中视频运营时,务必要时刻保持对爆款视频的敏锐嗅觉,及时研究、分析和总结它们成功的原因。不要一味认为那些成功的人纯粹是运气好,而应该思考和总结他们是如何取得成功的。只有积累更多成功的经验,并站在“巨人的肩膀”上进行运营,你才能够看得更高、更远,从而更容易获得成功。我......
  • python 数据可视化———电子商务销售分析
    一、选题背景随着互联网和移动互联网技术的不断发展,电子商务已经成为了一个全球性的发展趋势。越来越多的商家和消费者都开始使用电子商务平台进行线上交易,这在一定程度上改变了传统商业模式,并且对于消费者而言,电子商务平台也提供了更为便捷的购物体验。因此,对于电子商务销售的分......
  • 006Arch中Docker的基本使用---可视化界面(portainer)
    外链:Docker入门到实践(九)docker可视化界面portainer的安装与使用_零碎de記憶的博客-CSDN博客InstallPortainerBEwithDockeronWSL/DockerDesktop-PortainerDocumentation安装portainer查询前10个Portainer镜像dockersearchportainer--limit10拉取Po......