首页 > 其他分享 >Percona Toolkit 神器全攻略(开发类)

Percona Toolkit 神器全攻略(开发类)

时间:2024-08-23 09:37:17浏览次数:12  
标签:GreatSQL pt -- db Toolkit 全攻略 ptosc Percona test

Percona Toolkit 神器全攻略(开发类)

file

Percona Toolkit 神器全攻略系列共八篇,前文回顾:

前文回顾
Percona Toolkit 神器全攻略
Percona Toolkit 神器全攻略(实用类)
Percona Toolkit 神器全攻略(配置类)
Percona Toolkit 神器全攻略(监控类)
Percona Toolkit 神器全攻略(系统类)

全文约定:$为命令提示符、greatsql>为GreatSQL数据库提示符。在后续阅读中,依据此约定进行理解与操作

开发类

在Percona Toolkit中开发类共有以下工具

  • pt-duplicate-key-checker:列出并删除重复的索引和外键
  • pt-online-schema-change:在线修改表结构
  • pt-show-grants:规范化和打印权限
  • pt-upgrade:在多个服务器上执行查询,并比较不同

pt-duplicate-key-checker

概要

检查MySQL/GreatSQL表中的重复或冗余索引和外键

用法

  • pt-duplicate-key-checker [OPTIONS] [DSN]

选项

该工具所有选项如下

参数 含义
--all-structs 比较具有不同结构(BTREE、HASH 等)的索引
--ask-pass 连接MySQL/GreatSQL提示输入密码
--charset 默认字符集
--[no]clustered 禁用聚集索引的重复键检查
--config 读取这个逗号分隔的配置文件列表,如果指定,这必须是命令行上的第一个选项
--databases 仅检查此逗号分隔的数据库列表
--defaults-file 只从给定文件中读取 MySQL/GreatSQL 选项
--engines 仅检查其存储引擎位于此逗号分隔列表中的表
--help 显示帮助
--host 连接到主机
--ignore-databases 指定要忽略的数据库列表,多个数据库列表之间用逗号隔开
--ignore-engines 指定要忽略的引擎列表,多个引擎列表之间用逗号隔开
--ignore-order 忽略索引顺序,使得 KEY(a,b) 重复 KEY(b,a)
--ignore-tables 指定要忽略的表列表,多个表之间用逗号隔开
--key-types 要检查的索引类型
--password 连接时使用的密码
--pid 创建给定的 PID 文件
--port 用于连接的端口号
--set-vars 检查的表的会话变量
--socket 用于连接的套接字文件
--[no]sql 为每个重复键打印DROP KEY语句
--[no]summary 在输出末尾打印索引摘要
--tables 仅检查的表列表,多个表之间用逗号隔开
--user 用于登录的用户
--verbose 输出找到的所有键和/或外键,而不仅仅是冗余的
--version 显示版本
--[no]version-check 版本检查

最佳实践

创建一张表,包含两个重复索引

-- 创建一张test_table表
CREATE TABLE `test_table` (
  `id` INT NOT NULL AUTO_INCREMENT,
  `name` VARCHAR(255) DEFAULT NULL,
  `age` INT DEFAULT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB;

-- 创建name字段的索引
greatsql> CREATE INDEX `idx_name` ON `test_table` (`name`);

-- 创建age字段的索引
greatsql> CREATE INDEX `idx_age` ON `test_table` (`age`);

-- 创建一个冗余的索引`idx_name_age`
greatsql> CREATE INDEX `idx_name_age` ON `test_table` (`name`, `age`);

使用pt-duplicate-key-checker工具

$ pt-duplicate-key-checker -uroot --ask-pass --socket=/data/GreatSQL/MySQL.sock -d test_db
 
Enter password: # 这里输入密码 
# ########################################################################
# test_db.test_table                                                      
# ########################################################################

# idx_name is a left-prefix of idx_name_age
# Key definitions:
#   KEY `idx_name` (`name`),
#   KEY `idx_name_age` (`name`,`age`)
# Column types:
#         `name` varchar(255) default null
#         `age` int default null
# To remove this duplicate index, execute:
ALTER TABLE `test_db`.`test_table` DROP INDEX `idx_name`;

# ########################################################################
# Summary of indexes                                                      
# ########################################################################

# Size Duplicate Indexes   1023
# Total Duplicate Indexes  1
# Total Indexes            11

由上述输出的检查信息中,可以看到,表test_table中存在冗余索引,并且给出对应可以删除重复索引的SQL命令

结尾的统计信息:

  • Size Duplicate Indexes,检查的索引占用空间大小
  • Total Duplicate Indexes,检查的冗余索引数量
  • Total Indexes,检查的总的索引数量

当然也可以直接看系统表schema_redundant_indexes

greatsql> select * from sys.schema_redundant_indexes\G
*************************** 1. row ***************************
              table_schema: test_db
                table_name: test_table
      redundant_index_name: idx_name
   redundant_index_columns: name
redundant_index_non_unique: 1
       dominant_index_name: idx_name_age
    dominant_index_columns: name,age
 dominant_index_non_unique: 1
            subpart_exists: 0
            sql_drop_index: ALTER TABLE `test_db`.`test_table` DROP INDEX `idx_name`

pt-online-schema-change

概要

在线修改表结构,特点是修改过程中不会造成读写阻塞

原理

工作原理是创建要更改的表的空副本,根据需要对其进行修改,然后将原始表中的行复制到新表中。复制完成后,它会移走原始表并用新表替换。默认情况下,它还会删除原始表

用法

  • pt-online-schema-change [OPTIONS] DSN

选项

互斥关系

选项A 选项B 关系
--dry-run --execute 互斥

该工具所有选项如下

参数 含义
--alter 架构修改,无需 ALTER TABLE 关键字
--alter-foreign-keys-method 用于指定在修改表结构时如何处理外键约束(auto、rebuild_constraints、drop_swap、none)
--[no]analyze-before-swap 在与旧表交换之前,对新表执行ANALYZE TABLE
--ask-pass 连接时提示输入密码
--channel 使用复制通道连接到服务器时使用的通道名称
--charset 默认字符集
--[no]check-alter 用于控制工具在执行ALTER TABLE语句时是否进行检查
--[no]check-foreign-keys 检查自引用外键
--check-interval 用于指定在检查从库延迟时休眠的时间间隔,默认1秒
--[no]check-plan 检查查询执行计划的安全性
--[no]check-replication-filters 用于控制工具是否检查复制过滤规则
--check-slave-lag 用于在执行数据迁移操作之前检查主从服务器之间的延迟
--chunk-index 用于指定根据哪个索引对表进行分块
--chunk-index-columns 用于分块操作的索引列
--chunk-size 用于指定每次复制数据块的大小,以行数为单位
--chunk-size-limit 限制每次批量操作的数据量
--chunk-time 每个数据块处理的最大时间
--config 读取这个逗号分隔的配置文件列表,如果指定,这必须是命令行上的第一个选项
--critical-load 设置触发工具直接结束操作的系统负载阈值
--database 连接到数据库的库名
--default-engine 用于指定新表的存储引擎
--data-dir 指定一个目录,用于存放工具在操作过程中创建的一些临时文件
--remove-data-dir 用于在工具操作完成后自动删除在 --data-dir 中创建的临时目录和文件
--defaults-file 只从给定文件中读取GreatSQL选项
--[no]drop-new-table 如果复制原始表失败,则删除新表
--[no]drop-old-table 重命名后删除原始表
--[no]drop-triggers 在旧表上删除触发器
--dry-run 创建并更改新表,但不创建触发器、复制数据或替换原始表
--execute 表明您已阅读文档并想要更改该表
--[no]check-unique-key-change 用于控制工具在执行表结构变更时是否检查唯一键的变化
--force 用于在工具运行时遇到一些特定的问题或障碍时强制执行表结构变更
--help 显示帮助
--host 连接到主机
--max-flow-ctl --max-lag相似,但适用于 PXC 集群
--max-lag 暂停数据复制,直到所有副本的滞后小于该值,默认1秒
--max-load 在每个块之后检查 SHOW GLOBAL STATUS,如果任何状态变量高于其阈值,则暂停
--preserve-triggers 指定时保留旧触发器
--new-table-name 交换之前的新表名称
--null-to-not-null 允许将允许 NULL 值的列修改为不允许 NULL 值的列
--only-same-schema-fks 仅检查与原始表具有相同架构的表上的外键
--password 连接时使用的密码
--pause-file 当此参数指定的文件存在时,执行将暂停
--pid 创建给定的 PID 文件
--plugin 定义 pt_online_schema_change_plugin 类的 Perl 模块文件
--port 用于连接的端口号
--print 将 SQL 语句打印到 STDOUT
--progress 复制行时将进度报告打印到 STDERR
--quiet 不要将消息打印到 STDOUT,禁用 --progress
--recurse 用于指定工具是否应该递归地应用到所有从库上
--recursion-method 用于指定工具如何查找和连接从库(Slave)的方法
--skip-check-slave-lag 检查从机滞后时要跳过的 DSN
--slave-user 设置用于连接从机的用户
--slave-password 设置用于连接从机的密码
--set-vars 在这个以逗号分隔的 variable=value 对列表中设置变量
--sleep 复制每个块后休眠多长时间(以秒为单位)
--socket 用于链接的套接字文件
--statistics 打印有关内部计数器的统计信息
--[no]swap-tables 交换原始表和新的、更改后的表
--tries 尝试关键操作多少次
--user 登录用户
--version 显示版本
--[no]version-check 版本检查

最佳实践

先创建一张表,并插入1万条数据

greatsql> CREATE TABLE test_db.ptosc (id INT PRIMARY KEY AUTO_INCREMENT,k BIGINT NOT NULL,c VARCHAR(255) NOT NULL,pad VARCHAR(255) NOT NULL);

greatsql> select count(*) from ptosc;
+----------+
| count(*) |
+----------+
|    10000 |
+----------+
1 row in set (0.00 sec)

添加一列

使用pt-online-schema-change工具添加一列:a,类型为INT

$ pt-online-schema-change --host=localhost --user=root --ask-pass --alter "ADD COLUMN a INT" D=test_db,t=ptosc --print --execute

--print 是打印工具执行过程

--execute确认开始

此时会输出工具的执行过程,来一段段解析

  1. 在执行前的一些状态检查及默认的操作设置
# 下一行表示工具没有找到任何从服务器(slaves)
No slaves found.  See --recursion-method if host myarch has slaves.
# 下一行表示工具没有检查从服务器的延迟,因为它没有找到任何从服务器,并且也没有指定 --check-slave-lag 选项来强制检查从服务器的延迟。
Not checking slave lag because no slaves were found and --check-slave-lag was not specified.
# 以下部分列出了 pt-online-schema-change 工具在更改过程中可能会执行的操作,以及默认的重试次数和等待时间:
Operation, tries, wait:
# 分析原表的结构,以准备进行更改。如果失败,将重试 10 次,每次失败后等待 1 秒。
  analyze_table, 10, 1
# 从原表复制行到新表。如果复制失败,将重试 10 次,每次失败后等待 0.25 秒。
  copy_rows, 10, 0.25
# 在新表上创建触发器,以便捕获对原表的任何更改,并将这些更改应用到新表。如果失败,将重试 10 次,每次失败后等待 1 秒。
  create_triggers, 10, 1
# 在切换完成后删除这些触发器。如果失败,将重试 10 次,每次失败后等待 1 秒。
  drop_triggers, 10, 1
# 切换原表和新表,使新表成为活动表。如果失败,将重试 10 次,每次失败后等待 1 秒。
  swap_tables, 10, 1
# 更新与新表相关的任何外键约束。如果失败,将重试 10 次,每次失败后等待 1 秒。
  update_foreign_keys, 10, 1
  1. 创建一张名为_ptosc_new的新表
Creating new table...
CREATE TABLE `test_db`.`_ptosc_new` (
  `id` int NOT NULL AUTO_INCREMENT,
  `k` bigint NOT NULL,
  `c` varchar(255) NOT NULL,
  `pad` varchar(255) NOT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=10001 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci
Created new table test_db._ptosc_new OK.
  1. 对新表_ptosc_new增加一列 a
Altering new table...
ALTER TABLE `test_db`.`_ptosc_new` ADD COLUMN a INT
Altered `test_db`.`_ptosc_new` OK.
  1. 创建三个触发器DELETE、UPDATE、INSERT
2024-04-10T14:53:52 Creating triggers...
-----------------------------------------------------------
Event : DELETE 
Name  : pt_osc_test_db_ptosc_del 
SQL   : CREATE TRIGGER `pt_osc_test_db_ptosc_del` AFTER DELETE ON `test_db`.`ptosc` FOR EACH ROW BEGIN DECLARE CONTINUE HANDLER FOR 1146 begin end; DELETE IGNORE FROM `test_db`.`_ptosc_new` WHERE `test_db`.`_ptosc_new`.`id` <=> OLD.`id`; END  
Suffix: del 
Time  : AFTER 
-----------------------------------------------------------
-----------------------------------------------------------
Event : UPDATE 
Name  : pt_osc_test_db_ptosc_upd 
SQL   : CREATE TRIGGER `pt_osc_test_db_ptosc_upd` AFTER UPDATE ON `test_db`.`ptosc` FOR EACH ROW BEGIN DECLARE CONTINUE HANDLER FOR 1146 begin end; DELETE IGNORE FROM `test_db`.`_ptosc_new` WHERE !(OLD.`id` <=> NEW.`id`) AND `test_db`.`_ptosc_new`.`id` <=> OLD.`id`; REPLACE INTO `test_db`.`_ptosc_new` (`id`, `k`, `c`, `pad`) VALUES (NEW.`id`, NEW.`k`, NEW.`c`, NEW.`pad`); END  
Suffix: upd 
Time  : AFTER 
-----------------------------------------------------------
-----------------------------------------------------------
Event : INSERT 
Name  : pt_osc_test_db_ptosc_ins 
SQL   : CREATE TRIGGER `pt_osc_test_db_ptosc_ins` AFTER INSERT ON `test_db`.`ptosc` FOR EACH ROW BEGIN DECLARE CONTINUE HANDLER FOR 1146 begin end; REPLACE INTO `test_db`.`_ptosc_new` (`id`, `k`, `c`, `pad`) VALUES (NEW.`id`, NEW.`k`, NEW.`c`, NEW.`pad`);END  
Suffix: ins 
Time  : AFTER 
-----------------------------------------------------------
2024-04-10T14:53:52 Created triggers OK.
  1. 拷贝旧表数据到新表
2024-04-10T14:53:52 Copying approximately 9861 rows...
INSERT LOW_PRIORITY IGNORE INTO `test_db`.`_ptosc_new` (`id`, `k`, `c`, `pad`) SELECT `id`, `k`, `c`, `pad` FROM `test_db`.`ptosc` FORCE INDEX(`PRIMARY`) WHERE ((`id` >= ?)) AND ((`id` <= ?)) LOCK IN SHARE MODE /*pt-online-schema-change 214419 copy nibble*/
SELECT /*!40001 SQL_NO_CACHE */ `id` FROM `test_db`.`ptosc` FORCE INDEX(`PRIMARY`) WHERE ((`id` >= ?)) ORDER BY `id` LIMIT ?, 2 /*next chunk boundary*/
2024-04-10T14:53:52 Copied rows OK.
  1. 分析新表,并交换新旧表,最后删除旧表
2024-04-10T14:53:52 Analyzing new table...
2024-04-10T14:53:52 Swapping tables...
RENAME TABLE `test_db`.`ptosc` TO `test_db`.`_ptosc_old`, `test_db`.`_ptosc_new` TO `test_db`.`ptosc`
2024-04-10T14:53:52 Swapped original and new tables OK.
2024-04-10T14:53:52 Dropping old table...
DROP TABLE IF EXISTS `test_db`.`_ptosc_old`
2024-04-10T14:53:52 Dropped old table `test_db`.`_ptosc_old` OK.
  1. 删除触发器,完成所有操作
2024-04-10T14:53:52 Dropping triggers...
DROP TRIGGER IF EXISTS `test_db`.`pt_osc_test_db_ptosc_del`
DROP TRIGGER IF EXISTS `test_db`.`pt_osc_test_db_ptosc_upd`
DROP TRIGGER IF EXISTS `test_db`.`pt_osc_test_db_ptosc_ins`
2024-04-10T14:53:52 Dropped triggers OK.
Successfully altered `test_db`.`ptosc`.

修改字符集

将表ptosc的c字段的字符集修改为utf8mb4

$ pt-online-schema-change --host=localhost --user=root --ask-pass --alter "modify column c varchar(255) character set utf8mb4" D=test_db,t=ptosc --alter-foreign-keys-method=auto --execute

这里设置了一个--alter-foreign-keys-method用于设置外键约束的处理方法,设置为auto就是自动选择处理方法

删除一列

$ pt-online-schema-change --host=localhost --user=root --ask-pass --alter "drop column c" D=test_db,t=ptosc --alter-foreign-keys-method=auto --execute

删除外键

$ pt-online-schema-change --host=localhost --user=root --ask-pass --alter "drop foreign key _dept_emp_ibfk_1" D=test_db,t=ptosc --alter-foreign-keys-method=auto --execute

注意事项

在使用该工具时,需要注意以下几点:

  1. 工具在运行过程中,避免对原表进行更改,可能会出现数据不一致

  2. 使用该工具前要充分测试

  3. 最好在业务低峰时候操作

pt-show-grants

概要

显示当前数据库中所有用户的授权情况,并以GRANT语句现实,方便复制到其他数据库上执行

用法

  • pt-show-grants [OPTIONS] [DSN]

选项

参数 含义
--ask-pass 连接MySQL/GreatSQL提示输入密码
--charset 默认字符集
--config 读取这个逗号分隔的配置文件列表,如果指定,这必须是命令行上的第一个选项
--databases 仅检查此逗号分隔的数据库列表
--defaults-file 只从给定文件中读取 MySQL/GreatSQL 选项
--drop 在输出中的每个用户之前添加 DROP USER
--flush 输出后添加 FLUSH PRIVILEGES
--[no]header 打印转储标题,默认有标题
--help 显示帮助
--host 连接到主机
--ignore 要忽略的用户
--only 只显示的用户
--password 连接时使用的密码
--pid 创建给定的 PID 文件
--port 用于连接的端口号
--revoke 为每个 GRANT 语句添加 REVOKE 语句
--separate 分别列出每个 GRANT 或 REVOKE
--set-vars 在这个以逗号分隔的 variable=value 对列表中设置 MySQL/GreatSQL 变量
--[no]include-unused-roles 转储 MySQL 8+ 角色时,包括未使用的角色
--socket 用于连接的套接字文件
--[no]timestamp 将时间戳添加到转储标头
--user 用于登录的用户
--version 显示版本

最佳实践

只显示GreatSQL用户的授权信息

$ pt-show-grants --host=localhost --user=root --ask-pass --only=GreatSQL

输出如下

-- Grants dumped by pt-show-grants
-- Dumped from server Localhost via UNIX socket, MySQL 8.0.32-25 at 2024-04-16 13:43:25
-- Grants for 'GreatSQL'@'%'
CREATE USER IF NOT EXISTS `GreatSQL`@`%`;
ALTER USER `GreatSQL`@`%` IDENTIFIED WITH 'caching_sha2_password' REQUIRE NONE PASSWORD EXPIRE DEFAULT ACCOUNT UNLOCK PASSWORD HISTORY DEFAULT PASSWORD REUSE INTERVAL DEFAULT PASSWORD REQUIRE CURRENT DEFAULT;
GRANT ACCESS_PROCFS,APPLICATION_PASSWORD_ADMIN,AUDIT_ABORT_EXEMPT,AUDIT_ADMIN,AUTHENTICATION_POLICY_ADMIN,BACKUP_ADMIN,BINLOG_ADMIN,BINLOG_ENCRYPTION_ADMIN,CLONE_ADMIN,CONNECTION_ADMIN,ENCRYPTION_KEY_ADMIN,FIREWALL_EXEMPT,FLUSH_OPTIMIZER_COSTS,FLUSH_STATUS,FLUSH_TABLES,FLUSH_USER_RESOURCES,GROUP_REPLICATION_ADMIN,GROUP_REPLICATION_STREAM,INNODB_REDO_LOG_ARCHIVE,INNODB_REDO_LOG_ENABLE,PASSWORDLESS_USER_ADMIN,PERSIST_RO_VARIABLES_ADMIN,REPLICATION_APPLIER,REPLICATION_SLAVE_ADMIN,RESOURCE_GROUP_ADMIN,RESOURCE_GROUP_USER,ROLE_ADMIN,SENSITIVE_VARIABLES_OBSERVER,SERVICE_CONNECTION_ADMIN,SESSION_VARIABLES_ADMIN,SET_USER_ID,SHOW_ROUTINE,SYSTEM_USER,SYSTEM_VARIABLES_ADMIN,TABLE_ENCRYPTION_ADMIN,XA_RECOVER_ADMIN ON *.* TO `GreatSQL`@`%` WITH GRANT OPTION;
GRANT ALTER, ALTER ROUTINE, CREATE, CREATE ROLE, CREATE ROUTINE, CREATE TABLESPACE, CREATE TEMPORARY TABLES, CREATE USER, CREATE VIEW, DELETE, DROP, DROP ROLE, EVENT, EXECUTE, FILE, INDEX, INSERT, LOCK TABLES, PROCESS, REFERENCES, RELOAD, REPLICATION CLIENT, REPLICATION SLAVE, SELECT, SHOW DATABASES, SHOW VIEW, SHUTDOWN, SUPER, TRIGGER, UPDATE ON *.* TO `GreatSQL`@`%` WITH GRANT OPTION;

该工具会展示GreatSQL用户的所有权限,用户可以直接复制输出的结果,方便粘贴到其他数据库上执行

pt-upgrade

概要

用于验证不同数据库上的SQL语句查询结果是否相同,有助于确定升级(或降级)到新版本的 MySQL/GreatSQL 是否安全。

用法

  • pt-upgrade [OPTIONS] LOGS|RESULTS DSN [DSN]

查询差异的判断主要来源以下几点:

  1. Row count,返回的行数是否相同
  2. Row data,返回的行数据是否相同
  3. Warnings,返回的警告是否相同
  4. Query time,查询的相差时间
  5. Query errors,查询错误,在一个数据库出错,则会报告为“查询错误”
  6. SQL errors,SQL错误,在两个数据库都出错,则会报告为“SQL 错误”

选项

参数 含义
--ask-pass 连接MySQL/GreatSQL提示输入密码
--charset 默认字符集
--config 读取这个逗号分隔的配置文件列表,如果指定,这必须是命令行上的第一个选项
--[no]continue-on-error 即使出现错误也继续解析
--[no]create-upgrade-table 创建 --upgrade-table 数据库和表
--daemonize 后台运行
--databases 数据库列表
--defaults-file 只从给定文件中读取 MySQL/GreatSQL 选项
--[no]disable-query-cache SET SESSION query_cache_type = OFF 禁用查询缓存
--dry-run “试运行”模式,会显示 pt-upgrade 将会执行的操作,但实际上不会执行任何更改
--filter 指定一个或多个过滤条件
--help 显示帮助
--host 连接到主机
--ignore-warnings 比较警告时忽略这些 MySQL/GreatSQL 警告代码
--log 当后台运行时,将 STDOUT 和 STDERR 打印到此文件
--max-class-size 限制每个数据类型类别中用于比较和生成差异样本的最大行数
--max-examples 限制 pt-upgrade 工具为每个差异类型生成的差异样本的最大数量
--password 连接时使用的密码
--pid 创建给定的 PID 文件
--port 用于连接的端口号
--progress 将进度报告打印到 STDERR
--[no]read-only 默认情况下,只会执行 SELECT 和 SET 操作。如要执行其它操作,必须指定该参数
--report 打印“报告”的这些部分
--run-time 运行时间
--save-results 将结果保存到此目录
--set-vars 以逗号分隔的 variable=value 对列表中设置 MySQL/GreatSQL 变量
--socket 用于连接的套接字文件
--type 日志文件的类型
--upgrade-table 使用此表清除警告,默认是percona_schema.pt_upgrade
--user 用于登录的用户
--version 显示版本
--[no]version-check 版本检查

最佳实践

只需提供两个实例的连接信息和文件名,直接比较一个文件中的 SQL 在两个实例中的执行效果

$ pt-upgrade h=host1 h=host2 slow.log

使用--type参数轻松指定文件类型,支持慢日志、通用日志、二进制日志(经mysqlbinlog解析)、原始SQL语句和tcpdump。若未指定,则默认为慢日志。

接下来做个简单的示范,创建一个pt_upgrade_test.sql包含了若干条测试语句

$ vim /tmp/pt_upgrade_test.sql
SELECT NOW();
SELECT DATEDIFF('2023-10-23', '2023-01-01') AS days_diff;
SELECT 5 + 3 * 2 AS result;
SELECT DATABASE();
SHOW GRANTS FOR CURRENT_USER();

下面来看看这些语句的执行情况

本示例采用两个相同数据库进行演示。但请注意,在实际应用中,会对比两个不同数据库的相同SQL输出差异,因此,使用相同数据库进行对比并无实际意义。

$ pt-upgrade h=localhost,P=3306,u=root,--ask-pass h=localhost,P=3306,u=root,--ask-pass --type rawlog /tmp/pt_upgrade_test.sql --no-read-only

#-----------------------------------------------------------------------
# Logs
#-----------------------------------------------------------------------
File: /tmp/pt_upgrade_test.sql
Size: 151
#-----------------------------------------------------------------------
# Hosts
#-----------------------------------------------------------------------
host1:
  DSN:       h=localhost,P=3306
  hostname:  myarch
  MySQL:     GreatSQL, Release 25, Revision 79f57097e3f 8.0.32
  
host2:
  DSN:       h=localhost,P=3306
  hostname:  myarch
  MySQL:     GreatSQL, Release 25, Revision 79f57097e3f 8.0.32
#-----------------------------------------------------------------------
# Stats
#-----------------------------------------------------------------------
failed_queries        0
not_select            0
queries_filtered      0
queries_no_diffs      5
queries_read          5
queries_with_diffs    0
queries_with_errors   0
  • failed_queries:查询因为某种原因而失败的SQL个数

  • not_select:非SELECT类型的查询被处理的SQL个数

  • queries_filtered:查询因为某种过滤条件而被排除的SQL个数

  • queries_no_diffs:执行计划没有差异的SQL个数

  • queries_read:总共读取了几个查询进行比较

  • queries_with_diffs:在两个数据库上的执行计划存在差异的SQL个数

  • queries_with_errors:在执行过程中遇到错误的SQL个数

如果 queries_with_diffs 的值不为 0,就要着重检查下差异了

本文完

标签:GreatSQL,pt,--,db,Toolkit,全攻略,ptosc,Percona,test
From: https://www.cnblogs.com/greatsql/p/18375285

相关文章

  • Swift文档生成工具全攻略:从代码到文档的自动化之旅
    标题:Swift文档生成工具全攻略:从代码到文档的自动化之旅在Swift开发的世界中,代码的清晰表达与高效维护同等重要。Swift的代码文档生成工具,如同一盏明灯,照亮了代码的内在逻辑,让其他开发者或未来的你能够快速理解和使用你的代码。本文将带你深入了解如何在Swift中使用文档生成......
  • 斯坦福大学深度解析:机器学习优化算法全攻略
    在全球人工智能研究的浪潮中,斯坦福大学以其卓越的学术成就和前沿的研究成果,一直站在该领域的前沿。今天,我们将深入探讨斯坦福大学关于机器学习优化算法的精华讲义,这份讲义不仅包含了丰富的理论知识,还有图解和Pytorch实现代码,是学习和实践机器学习优化算法的宝贵资源。↓↓↓......
  • 释放创意潜能:Scratch跨格式导出全攻略
    标题:释放创意潜能:Scratch跨格式导出全攻略Scratch,这款专为儿童和创意编程爱好者设计的编程工具,以其易用性和趣味性,在全球范围内受到广泛欢迎。但你知道吗?除了在Scratch平台上分享和运行作品,Scratch还支持将项目导出为多种格式,让创意作品在更广阔的舞台上绽放光彩。一、Scr......
  • 《怪物猎人世界》游戏修改器:风灵月影六十七项功能全攻略
    《怪物猎人世界》(MonsterHunter:World)的风灵月影修改器,是一种专门为这款游戏设计的辅助工具,用于在游戏中提供多种自定义选项,以增强游戏体验或降低游戏难度。这类修改器通常由第三方开发者制作,并非官方发布,因此使用时需要注意可能带来的风险。《怪物猎人世界》六十七项风灵......
  • 从零开始打造多模态大模型:预训练全攻略,新手到专家的完整指南,一篇收藏走天下!
    本文参考官方教程[1]介绍如何训练LLaVAv1.5多模态模型。LLaVA训练包括特征对齐阶段(featurealignmentstage)和视觉指令微调阶段(visualinstructiontuningstage),其中特征对齐阶段使用LAION-CC-SBU数据集的558K子集(记为LLaVA-Pretrain),目的是训练MLPconnector(或称......
  • 秒开WebView?Android性能优化全攻略
    在如今的移动应用时代,用户体验的好坏直接关系到应用的成功与否。而在众多的用户体验因素中,应用的加载速度尤其重要。特别是对于使用 WebView 加载网页的应用,如果加载速度过慢,用户往往会产生不满,从而流失。因此,实现“秒开”WebView成为了开发者必须面对的一项挑战。本文将深......
  • AI软件下载丨最火的AI人工智能软件排行(最全攻略)!
    工欲善其事必先利其器,不管是写作、设计、剪辑,还是编程,目前国内外已经有一系列非常成熟的AI软件,但是不少同学苦于没有一篇全面的总结,今天就分享下最知名的一些主流AI神器,让你在工作中,可以更加为所欲为!一、AI写作工具1.笔灵AI写作官网地址:https://ibiling.cn不少大佬推荐过的......
  • 本地生活服务平台源码在哪里找到?获取全攻略来了!
    随着本地生活的市场前景和收益空间不断显现,各大官方平台的本地生活服务商申请门槛和审核力度以及入局后的考核要求也在持续调高。在此背景下,越来越多的创业者开始想要通过搭建本地生活服务平台源码完成入局,连带着本地生活服务平台源码在哪里找到等相关问题也因此备受关注。而......
  • 短剧CPS系统搭建全攻略:从零到一,详细教程助你快速上手
    目录一、短剧cps是什么?二、短剧cps系统搭建教程1.前端开发2.后端开发4.自动化与持续集成5.数据分析与监控三、部分代码展示 一、短剧cps是什么?短剧CPS系统是一种基于短剧推广的收益分成平台。该系统集成了短剧内容展示、用户观看、付费购买、佣金分成等功能,......
  • 安装Toolkits,使用prefetch下载SRA数据库
    准备安装Toolkits建议conda安装,命令如下。(兼容性还行,没必要新建环境)condainstall-cbiocondasra-tools注意:使用时记得先激活conda环境。直接安装,请参考:SRAToolKit(sra-tools)的安装和使用配置prefetch下载路径prefetch的默认目录是配置Toolkits的路径,非常建议更......