首页 > 数据库 >mysql 是否该数据列每个数据都唯一就应该设置唯一索引?

mysql 是否该数据列每个数据都唯一就应该设置唯一索引?

时间:2024-08-04 10:54:56浏览次数:12  
标签:buffer 唯一 索引 内存 mysql 数据 change

前言

比较一下唯一索引和普通索引的区别。

如果有一列数据唯一,这个时候是否是就直接设置唯一索引,这样可以避免插入重复的值,来实现业务需求。

那么唯一索引是如何保持唯一的呢?这个对性能是否有影响。

正文

数据库我们知道是增删改查。

那么首先来看下这个查,唯一索引是如何查数据的呢?

select id fromTwhere k=5。这个查询语句在索引树上查找的过程,先是通过B+树从树根开始,按层搜索到叶子节点,也就是图中右下角的这个数据页,

然后可以认为数据页内部通过二分法来定位记录。

那么里面开销最大的就是读取数据页。

那么如果是唯一索引的话,那么是通过二分法查到数据后,那么就返回。

如果不是唯一索引的话,那么就是向右找到不符合的数据为止,那么也就是内存多判断一次这个开销很正常。

现在的假设都是基于不用数据库实现唯一而是业务逻辑上实现唯一。

那么现在唯一索引和普通索引的查询效率其实是差不多的,几乎可以忽略。

按照这个来说,如果是列是唯一的,那么设置唯一索引,那么是很好的,因为并不会比普通索引带来更多的开销。

那么更新呢?

更新有一个机制,那就是change buffer这个东西。

当需要更新一个数据页时,如果数据页在内存中就直接更新,而如果这个数据页还没有在内存中的话,

在不影响数据一致性的前提下,InooDB会将这些更新操作缓存在change buffer中,这样

就不需要从磁盘中读入这个数据页了。在下次查询需要访问这个数据页的时候,将数据页读入内

存,然后执行change buffer中与这个页有关的操作。通过这种方式就能保证这个数据逻辑的正

确性。

需要说明的是,虽然名字叫作change buffer,实际上它是可以持久化的数据。也就是

说,change buffer在内存中有拷贝,也会被写入到磁盘上。

将change buffer中的操作应用到原数据页,得到最新结果的过程称为merge。

除了访问这个数据页会触发merge外,系统有后台线程会定期merge。

在数据库正常关闭(shutdown)的过程中,也会执行merge操作。

显然,如果能够将更新操作先记录在change buffer,减少读磁盘,语句的执行速度会得到明显的提升。

而且,数据读入内存是需要占用buffer pool的,所以这种方式还能够避免占用内存,提高内存利用率

那么这个时候才是唯一索引和普通索引不一样的地方,唯一索引永远用不上change buffer。

这里面有一个重要条件就是不违背数据库的一致性,因为唯一性索引更新的时候要判断是否存在该数据。

那么就必须从数据页中读取到内存中去,所以是无效的,只有普通索引能使用。

change buffer用的是buffer pool里的内存,因此不能无限增大。change buffer的大小,可以通

过参数innodb_change_buffer_max_size来动态设置。这个参数设置为50的时候,表示change

buffer的大小最多只能占用buffer pool的50%。

Buffer Pool是数据库管理系统中用于存储数据页的内存区域,用于加快数据库的访问速度。当数据库需要读取数据时,首先尝试从Buffer Pool中读取,如果数据页在该内存区域中,则可以更快速地访问数据。

在MySQL中,通常建议将InnoDB Buffer Pool设置为机器内存的50%-75%左右。对于8GB内存的机器,可以考虑将InnoDB Buffer Pool设置为4GB到6GB左右,以便充分利用内存提高数据库性能。这个设置可以根据实际情况进行微调和优化。

第一种情况是,这个记录要更新的目标页在内存中 这 。这时,InnoDB的处理流程如下:
1.对于唯一索引来说,找到3和5之间的位置,判断到没有冲突,插入这个值,语句执行结束;
2.对于普通索引来说,找到3和5之间的位置,插入这个值,语句执行结束。
这样看来,普通索引和唯一索引对更新语句性能影响的差别,只是一个判断,只会耗费微小的CPU时间

第二种情况是,这个记录要更新的目标页不在内存中 这 。这时,InnoDB的处理流程如下:

对于唯一索引来说,需要将数据页读入内存,判断到没有冲突,插入这个值,语句执行结束;

对于普通索引来说,则是将更新记录在change buffer,语句执行就结束了。

将数据从磁盘读入内存涉及随机IO的访问,是数据库里面成本最高的操作之一。change buffer因为减少了随机磁盘访问,所以对更新性能的提升是会很明显的。

通过上面的分析,你已经清楚了使用change buffer对更新过程的加速作用,也清楚了changebuffer只限于用在普通索引的场景下,而不适用于唯一索引。

那么,现在有一个问题就是:普通索引的所有场景,使用change buffer都可以起到加速作用吗?

因为merge的时候是真正进行数据更新的时刻,而change buffer的主要目的就是将记录的变更动

作缓存下来,所以在一个数据页做merge之前,change buffer记录的变更越多(也就是这个页面上要更新的次数越多),收益就越大。

因此,对于写多读少的业务来说,页面在写完以后马上被访问到的概率比较小,此时changebuffer的使用效果最好。这种业务模型常见的就是账单类、日志类的系统。

反过来,假设一个业务的更新模式是写入之后马上会做查询,那么即使满足了条件,将更新先记录在change buffer,但之后由于马上要访问这个数据页,会立即触发merge过程。这样随机访问IO的次数不会减少,反而增加了change buffer的维护代
价。

所以,对于这种业务模式来说,change buffer反而起到了副作用

如果所有的更新后面,都马上伴随着对这个记录的查询,那么你应该关闭change buffer。而在其他情况下,change buffer都能提升更新性能。

特别地,在使用机械硬盘时,change buffer这个机制的收效是非常显著的。所以,当你有一个类似“历史数据”的库,并且出于成本考虑用的是机械硬盘时,那你应该特别关注这些表里的索引,尽量使用普通索引,然后把change buffer 尽量开大,以

确保这个“历史数据”表的数据写入速度。

分析这条更新语句,你会发现它涉及了四个部分:内存、redo log(ib_log_fileX)、 数据表空间
(t.ibd)、系统表空间(ibdata1)。

ibdata1 是 InnoDB 存储引擎的主要数据文件,包含多个表的数据、索引和元数据信息。而 t.ibd 文件是 InnoDB 存储引擎中单独表的数据文件,每个 InnoDB 表都有一个对应的 .ibd 文件用于存储该表的数据和索引。因此,ibdata1 和 t.ibd 文件是不同的,分别用于存储不同层级的数据。

ibdata1的全称是"InnoDB Data File 1",而t.ibd的全称是"InnoDB Table Data File"。
  1. Page 1在内存中,直接更新内存;

  2. Page 2没有在内存中,就在内存的change buffer区域,记录下“我要往Page 2插入一行”这个
    信息

  3. 将上述两个动作记入redo log中(图中3和4)。

做完上面这些,事务就可以完成了。所以,你会看到,执行这条更新语句的成本很低,就是写了两处内存,

然后写了一处磁盘(两次操作合在一起写了一次磁盘),而且还是顺序写的。同时,图中的两个虚线箭头,是后台操作,不影响更新的响应时间。

那么如果插入之后马上读取呢?

  1. 读Page 1的时候,直接从内存返回。

  2. 要读Page 2的时候,需要把Page 2从磁盘读入内存中,然后应用change buffer里面的操作日志,生成一个正确的版本并返回结果

所以,如果要简单地对比这两个机制在提升更新性能上的收益的话,redo log 主要节省的是随 主机写磁盘的 机 IOI 消耗(转成顺序写),而 消 change buffer c 主要节省的则是随机读磁盘的 主 IOI 消
耗。

一般情况下没有性能影响的话,还是直接唯一索引比较好,如果是高并发,写多读少的话,可以考虑唯一索引。

首先,业务正确性优先。咱们这篇文章的前提是“业务代码已经保证不会写入重复数据”的情况下,讨论性能问题。

如果业务不能保证,或者业务就是要求数据库来做约束,那么没得选,必须创建唯一索引。

在一些“归档库”的场景,你是可以考虑使用唯一索引的。比如,线上数据只需要保留半年,然后历史数据保存在归档库。这时候,归档数据已经是确保没有唯一键冲突了。要提高归档效率,可以考虑把表里面的唯一索引改成普通索引。

标签:buffer,唯一,索引,内存,mysql,数据,change
From: https://www.cnblogs.com/aoximin/p/18329182

相关文章

  • django多数据库操作
    1.读写分离192.168.1.2default主数据库负责写入192.168.1.3slave从数据库负责读取2.生成数据库表pythonmanage.pymakemigrations分别迁移到主从数据库pythonmanage.pymigrate--database=defaultpythonmanage.pymigrate--database=slave多个app分......
  • 使用LangChain访问个人数据第五章-检索
    需要学习提示词工程的同学请看面向开发者的提示词工程需要学习ChatGPT的同学请查看搭建基于ChatGPT的问答系统需要学习LangChian开发的同学请查看基于LangChain开发应用程序本部分前几个章节请查看使用LangChain访问个人数据第一章-简介使用LangChain访问个人数据第......
  • Shell文本处理秘籍:掌握这11种工具,让数据处理如虎添翼!
    引言在Linux信息环境,文本数据处理是一项基础而重要的技能。对于广大Linux用户而言,掌握Shell环境下的文本处理工具不仅能提高工作效率,还能在面对复杂数据时游刃有余。本文将介绍,那些在文本处理中不可或缺的11种命令工具,让数据处理技能更上一层楼。目录find:find命令无......
  • 数据结构之特殊矩阵的压缩存储
    1.对称矩阵的压缩存储定义:若n阶矩阵A满足a(ij)=a(ji)(1≤i,j≤n),则称A为n阶对称矩阵。压缩存储方法:由于对称矩阵上三角和下三角的元素相同(主对角线上的元素只存储一次),因此可以只存储上三角(或下三角)的元素和主对角线上的元素。存储方式:通常使用一维数组来存储这些元素。......
  • 数据变换 Transforms
    通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。mindspore.dataset提供了......
  • 数据结构之《二叉树》(中)
    在数据结构之《二叉树》(上)中学习了树的相关概念,还了解的树中的二叉树的顺序结构和链式结构,在本篇中我们将重点学习二叉树中的堆的相关概念与性质,同时试着实现堆中的相关方法,一起加油吧!1.实现顺序结构二叉树在实现顺序结构的二叉树中通常把堆使用顺序结构的数组来存储,因......
  • 第6天:信息打点-Web 架构篇&域名&语言&中间件&数据库&系统&源码获取
    #知识点:1、打点-Web架构-语言&中间件&数据库&系统等操作系统:有些漏洞出现的系统不一样、便于知道哪些漏洞可以在目标上攻击Windows&linux开发语言:漏洞的开发语言中间件容器IIS&Apache&Nginx&Tomcat&Weblogic&jboosASP&PHP&Java&python&JavaScript等2、打点-Web源码-......
  • 数据结构 -- 栈和队列
    数据结构--栈和队列1.栈1.1栈的概念及结构1.2栈的实现2.队列2.1队列的概念及结构2.2队列的实现3.栈和队列面试题4.概念选择题1.栈1.1栈的概念及结构栈:一种特殊的线性表,其只允许在固定的一端进行插入和删除元素操作。进行数据插入和删除操作的一端称为栈顶,另一端......
  • ModbusRTU数据返回格式(成功返回格式、错误返回格式、成功响应格式、错误响应格式)
    文章目录常见的响应示例读保持寄存器(功能码03)写单个寄存器(功能码06)写多个寄存器(功能码10)错误响应Modbus协议的返回格式取决于所使用的功能码。在ModbusRTU(通过串行通信实现的Modbus)中,响应格式通常包括以下部分:设备地址(SlaveAddress):通信中的设备地址,用来标识......
  • Prometheus Alertmanager还能这样做数据持久化和可视化看板,太提效了吧?
    引言        Prometheus是一款主流的监控工具,对于Alertmanager存在的局限性我们不言而喻,本文主要介绍如何实现Alertmanager告警数据持久化,并在grafana搭建可视化看板。 背景        PrometheusAlertmanager作为Prometheus生态系统中的核心告警管理组......