首页 > 其他分享 >乐高玩具数据分析

乐高玩具数据分析

时间:2022-12-24 16:56:12浏览次数:70  
标签:数据分析 df 乐高 colors 玩具 add import opts

一、选题的背景

(1)为什么要选择此选题?

   乐高是一个很受欢迎的玩具积木品牌,它们通常是成套出售的,用来制作特定的物品,每一套都包含许多不同形状、大小和颜色的零件。它是一个有趣的数据集合,它包含了多年来集合的综合列表,以及每个集合包含的部分数。提供了许多可供探索的空间,特别是因为“集合”文件包含了集合首次发布的年份。集合的大小是如何随时间变化的?什么颜色与女巫主题有关? 你能不能通过一套积木来预测它的主题? 哪一套中使用最多的部件?什么组合里有最稀有的部件? 乐高玩具的颜色是否会随着时间的推移而改变?

 

(2)要达到的数据分析目标是什么?

中国大陆市场是乐高最重要的市场之一,2020-2022年乐高在中国大陆新增直营门店数量占全球新增数量的比例超过一半。中国玩具市场规模稳步扩大,乐高在全球玩具市场占有率为68.6%,在大陆市场占有率为42.3%,仍有较大的提升空间,创痛积木玩具同质化严重,乐高积极布局IP类产品,拥有全球顶级IP储备,进一步发掘中国本土IP,国产积木新国潮IP崛起可期。同时乐高布局STEAM教育类赛道,以14款积木、400+课程、4大赛事构建完备的STEAM产品体系;国内STEAM教育品牌 以积木为基础,依托高级机器人与编程课程和产品,存在破局可能,贝尔机器人、乐博乐博、童程童美等品牌率先实现规模布局,全国线下运营门店均超200家。中国大陆是其最重要的市场之一,国内市场占有率仍有提升空间。目前处于二次增长期,在中国大陆本土化加速。门店聚焦一二线城市,偏爱大型商超。我们统计了截至2022年6月28日国内各类乐高门店的 信息,可以看到大多数门店集中于一二线城市,并 且多位于大型商超。随着国内人均可支配收入提高 ,下沉市场仍有广阔发展空间。乐高竞品IP产品全盘点。我们盘点了美高(MEGA)积木(国际市场占有率第二的厂商)以及13家国产积木厂商所拥有的IP产品,并与乐高IP产品进行了对比分 析,几乎涵盖了国内积木市场的全部成熟参与者。

将与儿童的互动放在首位。作为一家积木设计与制造商,产品自带教育属性,产品的设计与制造本身就是其社会影响的一部分。因此乐高可 持续发展报告将与儿童的互动放在第一章,阐述通过产品履行社会职责的事例。积木的环保议题。一方面,积木是一种耐用品;另一方面,传统积木多由塑料制成。乐高已经开始使用生物材料替换塑料,并且对积木包装 进行替换,还通过其母公司不断投资可再生能源企业。对员工和供应商的突出重视。乐高在可持续发展报告中使用了较多篇幅阐述与员工和供应商的互动,这是社会责任的重要内容。

 

 

 

二、大数据分析设计方案

(1)本数据集的数据内容与数据特征分析

   三个数据集包含了不同的乐高组合中包含哪些部件的信息,它最初是为了帮助那些已经拥有一些乐高积木套的人弄清楚他们还能用自己的作品制造出什么其他玩具。

(2)数据分析的课程设计方案概述(包括实现思路与技术难点)

  Python 就不会在编译阶段做类型匹配检查。

  拿使用较多的 matplotlib 为列,整个图像为一个Figure 对象,在 Figure 对象中可以包含一个或多个 Axes对象,每个Axes对象都是一个拥有自己坐标系统的绘图区域。Axes 由 xaxis, yaxis, title, data 构成,xaxis 由坐标轴的线 ,tick以及label构成。

   麦肯锡思维中很重要的一条原理叫做金字塔原理,它的核心是层次化思考、逻辑化思考、结构化思考。

  金字塔:任何一件事情都有一个中心论点,中心论点可以划分成3~7个分论点,分论点又可以由3~7个论据支撑。层层拓展,这个结构由上至下呈金字塔状。

  核心法则:MECE,金字塔原理有一个核心法则MECE,全称 Mutually Exclusive Collectively Exhaustive,论点相互独立,尽可能多的列举。

  首先得有一个思考作为开始。这是什么意思?因为金字塔是从上而下,需要有一个中心论点,也就是塔尖。我们可以先提出一个问题,比如此产品的核心功能是某某功能吗?

  20%的分析过程决定80%的分析结果,抓住关键因素。  

  2.SQL分组,聚合,多表join操作,groupby, aggregate,join操作,大数据平台Hadoop,大数据架构,分布式存储,Mysql,hive 拉链表(dp 的状态 active 和 history)

  3.第一步应该是认真理解业务数据,可以试着理解去每个特征,观察每个特征,理解它们对结果的影响程度。然后,慢慢研究多个特征组合后,它们对结果的影响。明确各个特征的类型,如果这些数据类型不是算法部分期望的数据类型,你还得想办法编码成想要的。比如常见的数据自增列 id 这类数据,是否有必要放到你的算法模型中,因为这类数字很可能被当作数字读入。某些列的取值类型,虽然已经是数字了,它们的取值大小表示什么含义你也要仔细捉摸。因为,数字的相近相邻,并不一定代表另一种层面的相邻。找出异常数据,统计中国家庭人均收入时,如果源数据里面,有王建林,马云等这种富豪,那么,人均收入的均值就会受到极大的影响,这个时候最好,绘制箱形图,看一看百分位数。处理缺失值,现实生产环境中,拿到的数据恰好完整无损、没有任何缺失数据的概率,和买彩票中将的概率差不多。数据缺失的原因太多了,业务系统版本迭代, 之前的某些字段不再使用了,自然它们的取值就变为 null 了;再或者,压根某些数据字段在抽样周期里,就是没有写入数据……头疼的数据不均衡问题,理论和实际总是有差距的,理论上很多算法都存在一个基本假设,即数据分布总是均匀的。这个美好的假设,在实际中,真的存在吗?很可能不是!算法基于不均衡的数据学习出来的模型,在实际的预测集上,效果往往差于训练集上的效果,这是因为实际数据往往分布得很不均匀,这时候就要考虑怎么解决这些问题。

 

三、数据分析步骤

(1)数据源 

 数据集 :Rebrickable | Rebrickable - Build with LEGO

下载地址:LEGO Database 乐高数据库_数据集-阿里云天池 (aliyun.com)

下载sets.csv、themes.csv和colors.csv三个数据集。

 

 

(2)在乐高旗舰店,商品标题都有什么特点。可以看到标题中,"积木"、"玩具"、"XX系列"都被常常提到。同时"送礼"、"创意"、"益智"、"收藏"等也常出现。

 

 

 

 

pandas用.isna()或者.isnull()检查是否存在NaN。

 

# Explore Lego Sets 探索乐高玩具
%matplotlib inline
#create a summary of avarage number of parts by year:'parts_by_year'
#创建一份按年份列出的零件平均数量的摘要:'parts_by_year'
parts_by_year=df[['year','num_parts']].groupby('year').mean()

#plot trends in average number of parts by year
#按年份绘制零件平均数量的趋势图
parts_by_year.plot()

 

 

 

# Exploring Colors 探索颜色
# How many distinct colors are available有多少种不同的颜色可用
num_colors=colors.rgb.size

# print num_colors
#打印
print('Number of distinct colors:',num_colors)

 

#Transparent Colors in Lego Sets乐高玩具中的透明颜色
colors_summary=colors.groupby('is_trans').count()
colors_summary

 

 

 

 

 

 

评估模型,对测试集进行评估

 

import stylecloud
from IPython.display import Image
# 绘制词云图
stylecloud.gen_stylecloud(
text=' '.join(text),
collocations=False,
font_path=r"D:\Python\sets.csv"
icon_name='fas fa-plane',
background_color='pink',
size=768,
output_name='词云图.png'
)
Image(filename='词云图.png')

 

 

 

 

 

 

 

 

 

 

data_pair=[list(z) for z in zip(cut_purchase.index.tolist(),cut_purchase.values.tolist())]
# 绘制饼图
piel=Pie()
piel.add('',data_pair,radius=['35%','60%'])
piel.set_global_opts(title_opts=opts.TitleOpts(title='各个价格商品区间'),
legend_opts=opts.LegendOpts(orient='vertical',pos_top='15%',pos_left='2%'))
piel.set_series_opts(label_opts=opts.LabelOpts(formatter="{b}:{d}%"))
piel.set_colors(['#EF9050','#3B7BA9','#6FB27C','#FFAF34','#D7BFD7','#00BFFE','#7FFFAA'])
piel.render_notebook()

 

玩具销量排名分析

 

 

 

 

 

  (3) 附完整程序源代码

  1 #导入模块包
  2 import pandas as pd
  3 import numpy as np
  4 import matplotlib.pyplot as plt
  5 from sklearn import linear_model
  6 import seaborn as sns#显示效果更优化
  7 import time 
  8 import jiebafrom pyecharts.charts
  9 import Bar, Line, Pie, Map, Pagefrom pyecharts
 10 import options as opts from pyecharts.globals
 11 import SymbolType 
 12 import stylecloud
 13 import keras
 14 from keras import layers
 15 from keras import models
 16 from keras.layers import Dense, Dropout, Activation, Flatten
 17 
 18 ##运行配置参数中的字体(font)为黑体(SimHei)
 19 matplotlib.rcParams['font.sans-serif'] = ['SimHei']
 20 #运行配置参数总的轴(axes)正常显示正负号(minus)
 21 matplotlib.rcParams['axes.unicode_minus']=False
 22 sns.set(font='SimHei')
 23 
 24 #导入sets.csv包
 25 df = pd.read_csv(r"D:\python\sets.csv")
 26 df.head(10)
 27 
 28 #导入themes.csv包
 29 themes = pd.read_csv(r"D:\python\themes.csv")
 30 themes.head(10)
 31 
 32 #导入colors.csv包
 33 colors = pd.read_csv(r"D:\python\colors.csv")
 34 colors.head(10)
 35 
 36 # sets.csv的info() 数据集各列的数据类型,是否为空值,内存占用情况
 37 df=df.info()
 38 
 39 # themes.info()
 40 themes=themes.info()
 41 
 42 # colors.info()
 43 colors=colors.info()
 44 
 45 # 去除重复值
 46 df.drop_duplicates(inplace=True)
 47 df
 48 
 49 #删除不必要的列 id
 50 themes = themes.drop(['id'],axis=1)
 51 themes.head(1)
 52 
 53 # 对数值型字段进行描述性统计,并查看异常值
 54 df.describe()
 55 
 56 # 查看各字段的缺失值数量
 57 df.isna().sum()
 58 
 59 #大数据分析过程  
 60 #绘制每个特征的分布
 61 df.columns
 62 
 63 # value_counts 直接用来计算Series里面相同数据出现的频率
 64 pd.Series(df['name']).value_counts()
 65 
 66 # 读取矩阵的长度
 67 df.shape
 68 
 69 # Exploring Colors 探索颜色
 70 # How many distinct colors are available有多少种不同的颜色可用
 71 num_colors=colors.rgb.size
 72 
 73 # print num_colors
 74 #打印
 75 print('Number of distinct colors:',num_colors)
 76 
 77 #Transparent Colors in Lego Sets乐高玩具中的透明颜色
 78 colors_summary=colors.groupby('is_trans').count()
 79 colors_summary
 80 
 81 # Explore Lego Sets 探索乐高玩具
 82 %matplotlib inline
 83 #create a summary of avarage number of parts by year:'parts_by_year'
 84 #创建一份按年份列出的零件平均数量的摘要:'parts_by_year'
 85 parts_by_year=df[['year','num_parts']].groupby('year').mean()
 86 
 87 #plot trends in average number of parts by year
 88 #按年份绘制零件平均数量的趋势图
 89 parts_by_year.plot()
 90 
 91 merged[merged['set_num'].isnull()].shape
 92 
 93 bar1 = (
 94     Bar(init_opts=opts.InitOpts(theme='dark', width='1000px',height ='500px'))
 95     .add_xaxis(shopname.index.tolist())
 96     .add_yaxis("",shopname.values.tolist())
 97     .set_series_opts(
 98         label_opts=opts.LabelOpts(
 99                 is_show=True, 
100                 position='insideRight',
101                 font_style='italic'
102             ),
103         itemstyle_opts=opts.ItemStyleOpts(
104             color=JsCode(
105                 """new echarts.graphic.LinearGradient(1, 0, 0, 0, 
106                  [{offset: 0,color: 'rgb(255,99,71)'}, {offset: 1,color: 'rgb(32,178,170)'}])"""
107             )
108         )
109     )
110     .set_global_opts(
111         title_opts=opts.TitleOpts(title="商家上线的商品数目Top20"),
112         xaxis_opts=opts.AxisOpts(axislabel_opts=opts.LabelOpts(rotate=45)),
113         legend_opts=opts.LegendOpts(is_show=True))
114     .reversal_axis()
115 )
116 bar1.render_notebook()
117 
118 bar=(
119     Bar(init_opts=opts.InitOpts(height='500px',width='1000px',theme='dark'))
120     .add_xaxis(price_top.index.tolist())
121     .add_yaxis(
122         '单价最高的商品',
123         price_top.values.tolist(),
124         label_opts=opts.LabelOpts(is_show=True,position='top'),
125         itemstyle_opts=opts.ItemStyleOpts(
126             color=JsCode("""new echarts.graphic.LinearGradient(
127             0, 0, 0, 1,[{offset: 0,color: 'rgb(255,99,71)'}, {offset: 1,color: 'rgb(32,178,170)'}])
128             """
129             )
130         )
131     )
132     .set_global_opts(
133         title_opts=opts.TitleOpts(
134             title='单价最高的商品详细柱状图'),
135             xaxis_opts=opts.AxisOpts(name='玩具名称',
136             type_='category',                                           
137             axislabel_opts=opts.LabelOpts(rotate=90),
138         ),
139         yaxis_opts=opts.AxisOpts(
140             name='单价/元',
141             min_=0,
142             max_=39980.0,
143             splitline_opts=opts.SplitLineOpts(is_show=True,linestyle_opts=opts.LineStyleOpts(type_='dash'))
144         ),
145         tooltip_opts=opts.TooltipOpts(trigger='axis',axis_pointer_type='cross')
146     )
147 
148     .set_series_opts(
149         markline_opts=opts.MarkLineOpts(
150             data=[
151                 opts.MarkLineItem(type_='average',name='均值'),
152                 opts.MarkLineItem(type_='max',name='最大值'),
153                 opts.MarkLineItem(type_='min',name='最小值'),
154             ]
155         )
156     )
157 )
158 bar.render_notebook()
159 
160 def get_cut_words(content_series):
161     stop_words=[]
162     with open("D:\Python\sets.csv",'r',encoding='utf-8')as f:
163         lines=f.readlines()
164         for line in lines:
165             stop_words.append(line.strip())
166     # 添加关键词
167     my_words=['乐高','悟空','大颗粒','小颗粒']
168     for i in my_words:
169         jieba.add_word(i)
170     # 自定义停用词
171     # my_stop_words=[]
172     # stop_words.extend(my_stop_words)
173 
174     # 分词
175     word_num=jieba.lcut(content_series.str.cat(sep='。'),cut_all=False)
176     # 条件筛选
177     word_num_selected=[i for i in word_num if i not in stop_words and len(i)>=2]
178     return  word_num_selected
179 text=get_cut_words(content_series=df_tb['goods_name'])
180 text[:10]
181 
182 import stylecloud
183 from IPython.display import Image
184 # 绘制词云图
185 stylecloud.gen_stylecloud(
186     text=' '.join(text),
187     collocations=False,
188     font_path=r'F:Python数据分析课程python数据处理Pandas练习数据分析项目练习legao3225simhei.ttf',
189     icon_name='fas fa-plane',
190     background_color='pink',
191     size=768,
192     output_name='词云图.png'
193 )
194 Image(filename='词云图.png')
195 
196 data_pair=[list(z) for z in zip(cut_purchase.index.tolist(),cut_purchase.values.tolist())]
197 
198 # 绘制饼图
199 piel=Pie()
200 piel.add('',data_pair,radius=['35%','60%'])
201 piel.set_global_opts(title_opts=opts.TitleOpts(title='不同价格区间的销售额整体表现'),
202                     legend_opts=opts.LegendOpts(orient='vertical',pos_top='15%',pos_left='2%'))
203 piel.set_series_opts(label_opts=opts.LabelOpts(formatter="{b}:{d}%"))
204 piel.set_colors(['#EF9050','#3B7BA9','#6FB27C','#FFAF34','#D7BFD7','#00BFFE','#7FFFAA'])
205 piel.render_notebook()
206 
207 df['price_cut']=price_cut
208 
209 cut_purchase=df.groupby('price_cut')['sales_volume'].sum()
210 cut_purchase
211 
212 bar3=Bar()
213 bar3.add_xaxis(['0~50元','50~100','100~200元','200~300元','300~500元','500~1000元','1000元以上'])
214 bar3.add_yaxis('',[895,486,701,288,370,411,260])
215 bar3.set_global_opts(title_opts=opts.TitleOpts(title='不同价格区间的商品数量'),
216                     visualmap_opts=opts.VisualMapOpts(max_=900))
217 bar3.render_notebook()
218 
219 #国内各省份乐高销量
220 province_num=df_tb.groupby('province')['purchase_num'].sum().sort_values(ascending=False)
221 
222 province_num[:10]
223 
224 map1=Map()
225 map1.add("",[list(z) for z in zip(province_num.index.tolist(),province_num.values.tolist())],
226         maptype='china')
227 map1.set_global_opts(
228     title_opts=opts.TitleOpts(title='国内各产地乐高销量分布图'),
229     visualmap_opts=opts.VisualMapOpts(max_=172277)
230 )
231 map1.render_notebook()
232 
233 province_top10=df_tb.province.value_counts()[:10]
234 province_top10
235 # image-20201013210440405
236 
237 bar2=Bar()
238 bar2.add_xaxis(province_top10.index.tolist())
239 bar2.add_yaxis('',province_top10.values.tolist())
240 bar2.set_global_opts(
241         title_opts=opts.VisualMapOpts(max_=1000)
242                     )
243 bar2.render_notebook()
244 
245 # 对商品店铺名称进行分组,并对购买数量进行求和,降序排序,取前10条数据
246 shop_top10=df_tb.groupby('shop_name')['purchase_num'].sum().sort_values(ascending=False).head(10)
247 shop_top10
248 
249  条形图
250 # bar1=Bar(init_opts=opts.InitOpts(width='1350px',height='750px'))
251 bar1=Bar()
252 bar1.add_xaxis(shop_top10.index.tolist())
253 bar1.add_yaxis('',shop_top10.values.tolist())
254 bar1.set_global_opts(title_opts=opts.TitleOpts(title='乐高销量排名Top10淘宝店铺'),
255                      xaxis_opts=opts.AxisOpts(axislabel_opts=opts.LabelOpts(rotate=-15)),
256                      visualmap_opts=opts.VisualMapOpts(max_=28669)
257                     )
258 bar1.render_notebook()
259 
260 #店铺销量前十可视化
261 #提取数据
262 shop_top10 = data.groupby('店铺名称',as_index=False).sum().sort_values(by='销量', ascending=False).head(10).reset_index(drop=True)
263 #绘图
264 plt.figure(figsize=(15,8))
265 pic = sns.barplot(x='店铺名称', y='销量', data=shop_top10,palette="summer_r")
266 for a,b in zip(shop_top10.index, shop_top10['销量']):
267     pic.text(a,b,b,ha='center', va='bottom')
268 plt.xticks(rotation=45)
269 plt.title("店铺销量前十",fontsize=18, pad=20)
270 
271 # 排名前十的省份可视化
272 province_top10 = pd.DataFrame((data.省份.value_counts()[:10])).reset_index().rename(columns={"index":"地区","省份":"数量"})
273 plt.figure(figsize=(15,8))
274 pic = sns.barplot(x='地区', y='数量', data=province_top10,palette="spring_r")
275 for a,b in zip(province_top10.index, province_top10['数量']):
276     pic.text(a,b,b,ha='center', va='bottom')
277 plt.xticks(rotation=45)
278 plt.title("地区数量前十",fontsize=18, pad=20)
279 
280 # 价格分布可视化
281 cut_bings = [0,50,100,200,300,500,1000,8888]
282 cut_labels = ['0~50元', "50~100元", "100~200元", "200~300元", "300~500元", "500~1000元", "1000~8888元"]
283 data['价格区间'] = pd.cut(data['商品单价'],bins=cut_bings, labels=cut_labels)
284 
285 price = pd.DataFrame((data.价格区间.value_counts()[:10])).reset_index().rename(columns={"index":"价格区间","价格区间":"数量"})
286 
287 plt.figure(figsize=(15,8))
288 pic = sns.barplot(x='价格区间', y='数量', data=price,palette="spring_r")
289 plt.xticks(rotation=45)
290 plt.title("地区数量前十",fontsize=18, pad=20)
291 
292 model = models.Sequential()
293 #图像通过多个不同的卷积核的滤波,并加偏置 ( bias ),
294 #提取出局部特征,每一个卷积核会映射出一个新的 2D 图像。
295 model.add(layers.Conv2D(32, (3, 3), 
296                 activation='relu', 
297                 input_shape=(28, 28, 1)))#卷积层1
298 
299 #对激活函数的结果再进行池化操作 ( 即降采样),目前一般是使用最大池化,
300 #保留最显著的特征,并提升模型的畸变容忍能力。
301 model.add(layers.MaxPooling2D((2, 2)))#最大值池化层1
302 
303 #将前面卷积核的滤波输出结果进行非线性的激活函数处理
304 model.add(layers.Conv2D(64, (3, 3), activation='relu'))#卷积层2
305 
306 model.add(layers.MaxPooling2D((2, 2)))#最大值池化层2
307 
308 model.add(layers.Conv2D(64, (3, 3), activation='relu'))  #卷积层3
309 
310 model.add(layers.MaxPooling2D((2, 2)))#最大值池化层3
311 
312 model.add(layers.Flatten()) #降维
313 
314 model.add(layers.Dense(64, activation='relu'))   #全连接层1
315 
316 model.add(layers.Dense(500, activation='relu'))   #全连接层2
317 
318 model.add(layers.Dense(10, activation='softmax'))#全连接层3,作为输出层
319 
320 from keras.datasets import mnist
321 from tensorflow.keras.utils import to_categorical
322 (train_images, train_labels), (test_images, test_labels) = mnist.load_data()
323 
324 #数据类型转换float32
325 train_images = train_images.reshape((60000, 28, 28, 1))
326 train_images = train_images.astype('float32') / 255
327 test_images = test_images.reshape((10000, 28, 28, 1))
328 test_images = test_images.astype('float32') / 255
329 
330 #转换为one_hot类型
331 train_labels = to_categorical(train_labels)
332 test_labels = to_categorical(test_labels)
333 
334 #编译模型
335 model.compile(optimizer='rmsprop',
336               loss='categorical_crossentropy', 
337               metrics=['accuracy'])
338 
339 #训练模型
340 model.fit(train_images, train_labels, 
341           epochs=10, batch_size=128)
342 
343 #评估模型,对测试集进行评估
344 test_loss, test_acc = model.evaluate(test_images, test_labels)
345 print(test_acc)

 

四、对本课程设计的整体完成情况做一个总结

(1)通过对数据分析和挖掘  像这样世界级的玩具大厂曾经在2003年濒临破产的边缘,当时LEGO交易额骤减了30%。而这样的危机来自于玩具游戏市场的竞争。在其他电玩游戏业者接连崛起后,乐高单凭制造传统玩具、实在难敌其他不断改变的游戏产业。2004年,LEGO业绩又再掉了10%。这样接连的惨状连现任执行长Jorgen Vig Knudstorp都表示:「我们正处于入不敷出的危急时刻,面临债务违约危机,可能终将导致公司破产。为了要了解孩童的玩乐方式,LEGO开设了「Future Lab(未来研究室)」,透过科学研究人员的分析,了解消费者真正的喜好。在研究当中,也开启了许多不同的想法。例如,研究人员发现美国以及欧洲国家的家长就有很大的差异。美国的家长不喜欢在孩童玩乐的时候介入、教导他们,美国的家长们希望孩子可以独立探索。反之,欧洲的家长们却喜欢跟孩子们一起坐在地板上玩。对此,乐高也会对不同地区的客户做出本土化的设计。近年大数据蔚为风气,但LEGO将研究的重心更放在真实环境中的「小数据」。透过「以人为本」的仔细观察,拜访一个个真实的客户,对小样本做出直觉的观察。例如,他们曾经去拜访一位德国11岁的小男孩。LEGO的研究员问小男孩他家中最让他自豪的是什么东西。然后,小男孩想了一下并指向一双已经穿坏的溜冰鞋。小男孩说:这是我最骄傲的东西,因为他可以证明我是这镇上最棒的溜冰者。这点,也让团队意识到,虽然孩子能拥有的东西很多,但他们还是愿意把时间花在自己感兴趣、能够做主的事情上。根据这样小样本,团队开始设计更小的乐高积木,让孩子更能掌握自主组合的权力。虽然LEGO减少了一些不成功的事业,但他们也积极转型成数字化、开发新领域。例如在2014年推出了《The LEGO Movie(乐高玩电影)》,在全球创下超过5亿美元的票房,同时也成功提升品牌的形象。来年,乐高也与电影《侏罗纪世界》合作,推出了同主题的玩具以及游戏,藉由这个卖座大片同时提升品牌知名度。同样的成功模式也复制到《星际大战7》,同样造成良好的效益。利用跨界联盟,乐高已经不单单是游戏制造商,更会以内容营销、成为「讲述积木故事的媒体公司」,让产品讲述出更多意涵。

曾经,所有大数据都指出:未来的世代不会对乐高有兴趣了,毕竟,智能型、电子化的游戏将越来越多。然而,乐高不但度过1980年代掌上型游戏、计算机版游戏兴起时的难关,至今,面临智能型产品的崛起,他们一样靠着持续改变而不断突破。LEGO持续跨界签署授权协议,拍摄出成功的系列电影、也制作出电视及网络的原创作品。在玩具本身,乐高也结合科技,替单纯的积木创造出不同的价值。例如,乐高也推出能够与智能型手机互动的积木,在最新一代的Mindstorms这系列乐高机器人积木中,使用者可以通过手机连接Wi-Fi或是打开蓝牙来手动控制机器人。
因为与时俱进的改变,LEGO在近几年的营收逐年增加、员工数量变得庞大、生产线也拓展到其他国家。
1.从谷歌趋势平台发现,“LEGO”的搜索量在近一年居高不下,每日搜索量一直稳定保持在50次数左右。同时,搜索来源地区呈现范围广的特点,涵盖亚太地区、北美地区、欧洲地区等。其中搜索量最高的是丹麦和波兰。

 

 

 2.在亚马逊购物平台中,与“LEGO”关联的关键词多达274个,而其累计搜索量高达2.7百万次数,从这个庞大的数据能够推测出乐高的热度高涨,销量惊人。

 

 

 3.TIKTOK超店有数发现,关于“lego”的数据容量庞大,包括商品、带货达人、视频和广告视频。其中最能体现热度代的标签也证明了他很受欢迎,其播放量达到9866亿次数,点赞量有413亿次数。

 

 

 

 

(2)自己在完成此设计过程中,得到哪些收获?以及要改进的建议

  数据分析常用模块有三个:numpy:矩阵计算等数学计算,pandas:基于numpy的数据分析工具,使用数据框对表结构的数据进行分析,matplotlib:数据可视化,本次课程主要学习前两者。

  numpy一维数组与列表的区别:一维数组提供了很多统计功能,一维数组可以向量化运算,一维数组全是相同的数据类型。

  pandas的Series有index,我们可以在使用的时候指定这些index。iloc根据位置获取元素的值,loc方法根据index索引值获取元素的值。

  前面学了很多Python的基础知识,到了这一关可以简单打一些代码了,但是使用上还很不熟练,做不到如臂使指。这就要求我们结合这一关的学习努力去夯实基础,将自己的基础打牢,尤其是列表和字典的使用,更是重中之重,实际上,列表和numpy中的Array很像,字典和pandas中的Series很像,但是前后者的使用是有很大区别的,例如列表中可以使用 .append这个方法,但是array就不可以使用这些列表中的方法,这个一定要注意,列表和array很像,很容易就会出现这种混用的错误。

  做了好几天,非常辛苦,但是这种苦功的值得的,不去疯狂练习,永远也不知道列表等用法在实际操作中是怎么使用的,大学的时候我学C语言也是做了100道语法题才能做到融汇贯通的,Python只有努力练习,才能掌握它的使用方法。这种苦功,一百个小时过后,换来的就是Python的熟练掌握!

 

标签:数据分析,df,乐高,colors,玩具,add,import,opts
From: https://www.cnblogs.com/rosy-bubble/p/16989749.html

相关文章

  • 大数据分析——电影大热榜
    大数据分析——电影大热榜一、选题的背景随着国家的富强,人们的生活水平也得到提升。在茶余饭后现在人们都喜欢在视频软件上追剧看电影。来打法时间。“爱奇艺”是当下热......
  • Python爬虫——豆果美食菜谱爬取及数据分析
    一、选题的背景中国文化,博大精深,中国美食,也是数不胜数,在我国,不同地域的人,吃的美食也不相同,中国菜系我们统分为川菜、粤菜、东北菜、湘菜、鲁菜、浙菜、湖北菜和清真菜。通......
  • Python网络爬虫——福州小区信息的抓取与数据分析
    一、选题的背景为了能够充分了解福州当地小区的房价信息,并能够充分了解小区的位置,为每个人不同的需求,选择不同价位的房源,并通过其成交量进行参考和选择,以及剩余量爬取的信......
  • 数据分析-收入预测分析
    一、选题背景 当今社会,不管男女老少,都对成年人的收入倍感关注,所以收入一直以来都是一个社会热点话题,但是对于不同的职业和不同的个人条件来说,收入可能存在很大的差距。......
  • 电商数据分析
    一、选题的背景 电商是一个伴随着数据而生的行业,由此产生了非常多的电商信息化平台,有物流系统、供应链系统、流量分析平台等。对于零售业电商企业来说,要在未来十年内取得......
  • 大数据分析——糖尿病预防
    一、选题的背景随着社会经济科学技术的不断发展,人们的生活水平也不断的提高,然而糖尿病的发病人数也在逐年上升,随着 社会老龄化进程越来越深入,糖尿病的发病率上升的趋......
  • 大数据分析— 二手汽车价格预测
    二手汽车价格预测一:选题背景当今已经是大数据的时代,随着数据分析工具和技术的不断改进,掌握大数据分析技能也可以为个人的职业发展带来很大的好处。我分析的是二手汽车的......
  • udemy课程和评论的大数据分析
    一、选题的背景Udemy是一个面向学生和专业人士的在线学习平台。Udemy拥有超过5000万学生和57,000名教师,他们以超过65种语言教授课程。与其他在线教育平台不同的是,Udemy不......
  • 天猫商品数据分析
    一、选题的背景随着互联网与电商平台的发展,网上购物正成为国内消费者购物的重要方式。在重要的电商平台淘宝中,用户通过浏览商品详情页、收藏、加购或直接购买等方式来进行......
  • 大数据分析——景点数据分析
    一、选题背景随着我国经济、科技的不断发展和人民生活水平的不断提高,旅游逐渐成为社会的主要经济部门。旅游这项活动在伴随着经济社会的发展同时应运而生,它本质上是一种社......