提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档
文章目录
前言
`change buffer的职能为 延时将二级索引(非primary id)写入磁盘,降低磁盘IO,提升性能
一、change buffer工作流程
位置
内存,磁盘
流程
场景
- 对数据进行操作(增删改)时
- 存在二级索引
底层逻辑
- 非主键索引修改时,如果目标索引页不在缓存池中,会将修改操作的记录到change buffer
- change buffer的记录会同步到磁盘上的系统表空间
- 空闲、访问二级索引页或数据库关闭,合并回索引页
二、优缺点
减少磁盘IO
对数据操作延迟写入磁盘,减少随机IO次数, 批量写入尤为突出
读取延迟
有可能会触发合并动作,读取出现延迟
多消耗内存
本质上就是已空间换时间的缓存
三、启用场景
- 存在二级索引
- 高写入负载
四、配置
innodb_change_buffer_max_size
缓冲池中所占空间的百分比,配置语法
set global innodb_change_buffer_max_size = [0-100]
innodb_change_buffering
set global innodb_change_buffering = [all|insert|delete|change|none]
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
import warnings
warnings.filterwarnings('ignore')
import ssl
ssl._create_default_https_context = ssl._create_unverified_context
2.读入数据
代码如下(示例):
data = pd.read_csv(
'https://labfile.oss.aliyuncs.com/courses/1283/adult.data.csv')
print(data.head())
该处使用的url网络请求的数据。
总结
提示:这里对文章进行总结:
例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。