首页 > 其他分享 >ClickHouse入门

ClickHouse入门

时间:2023-01-06 18:35:26浏览次数:69  
标签:sku 00 06 入门 id 2020 order ClickHouse

ClickHouse入门

版本21.7.3.14

ClickHouse是列式存储数据库(DBMS),主要用于在线分析处理查询(OLAP)。

ClickHouse对函数是大小写敏感的,不管是什么操作,还是区分大小写好点

官方文档

1、ClickHouse的特点

  • 列式存储
  • 对于列的聚合,计数,求和等统计操作原因优于行式存储。
    • 由于某一列的数据类型都是相同的,针对于数据存储更容易进行数据压缩,每一列选择更优的数据压缩算法,大大提高了数据的压缩比重。
  • 由于数据压缩比更好,一方面节省了磁盘空间,另一方面对于 cache 也有了更大的发挥空间。
  • DBMS的功能
    • 几乎覆盖了标准 SQL 的大部分语法,包括 DDL 和 DML,以及配套的各种函数,用户管理及权限管理,数据的备份与恢复。
  • 多样化引擎
    • ClickHouse 和 MySQL 类似,把表级的存储引擎插件化,根据表的不同需求可以设定不同的存储引擎。目前包括合并树、日志、接口和其他四大类 20 多种引擎。
  • 高吞吐写入功能
    • ClickHouse 采用类 LSM Tree 的结构,数据写入后定期在后台 Compaction。通过类 LSM tree 的结构,ClickHouse 在数据导入时全部是 顺序 append 写 ,写入后数据段不可更改,在后台 compaction 时也是多个段 merge sort 后顺序写回磁盘。顺序写的特性,充分利用了磁盘的吞吐能力,即便在 HDD 上也有着优异的写入性能。
  • 数据分区与线程并行
    • ClickHouse 将数据划分为多个 partition,每个 partition 再进一步划分为多个 index granularity(索引粒度),然后通过多个 CPU 核心分别处理其中的一部分来实现并行数据处理。在这种设计下,单条查询就能利用整机所有 CPU。极致的并行处理能力,极大的降低了查询延时。
  • 适合单表(宽表)查询,不适合关联(Join)查询

2、ClickHouse文件位置

采用rmp的命令方式安装ClickHouse,默认的文件位置:

bin/ ===> /user/bin/
conf/ ===> /etc/clickhouse-server/
lib/ ===> /var/lib/clickhouse
log/ ===> /var/log/clickhouse

/var/lib/clickhouse/data/ ==> 数据存储路径

/var/lib/clickhouse/metadata/ ==> 表结构存储信息

ClickHouse命令:

clickhouse start
clickhouse stop
clickhouse status
clickhouse reboot

启动客户端:

clickhouse-client -m

-m 表示可交互式的客户端

外部执行命令:

clickhouse-client --query "show databases;"

3、 数据类型

3.1 整型

固定长度的整型,包括有符号整型或无符号整型。

整型范围(-2n-1~2n-1-1):

Int8 - [-128 : 127]

Int16 - [-32768 : 32767]

Int32 - [-2147483648 : 2147483647]

Int64 - [-9223372036854775808 : 9223372036854775807]

无符号整型范围(0~2n-1):

UInt8 - [0 : 255]

UInt16 - [0 : 65535]

UInt32 - [0 : 4294967295]

UInt64 - [0 : 18446744073709551615]

3.2 浮点型

Float32 - float

Float64 – double

注意:浮点型在进行计算时可能会引起四舍五入的误差。

3.3 布尔型

没有单独的类型来存储布尔值。可以使用 UInt8 类型,取值限制为 0 或 1。

3.4 Decimal 型

有符号的浮点数,可在加、减和乘法运算过程中保持精度。对于除法,最低有效数字会被丢弃(不舍入)。

有三种声明:

Decimal32(s),相当于 Decimal(9-s, s),有效位数为 1~9
Decimal64(s),相当于 Decimal(18-s, s),有效位数为 1~18
Decimal128(s),相当于 Decimal(38-s, s),有效位数为 1~38
s 标识小数位

3.5 字符串

1)String

字符串可以任意长度的。它可以包含任意的字节集,包含空字节。

2)FixedString(N)

固定长度 N 的字符串,N 必须是严格的正自然数。当服务端读取长度小于 N 的字符串时候,通过在字符串末尾添加空字节来达到 N 字节长度。 当服务端读取长度大于 N 的字符串时候,将返回错误消息。

与 String 相比,极少会使用 FixedString,因为使用起来不是很方便。

3.6 枚举类型

包括 Enum8 和 Enum16 类型。Enum 保存 ‘string’= integer 的对应关系。

Enum8 用 ‘String’= Int8 对描述。

Enum16 用 ‘String’= Int16 对描述。

1)用法演示

创建一个带有一个枚举 Enum8(‘hello’ = 1, ‘world’ = 2) 类型的列

CREATE TABLE t_enum
(
    `x` Enum8('hello' = 1, 'world' = 2)
)
ENGINE = TinyLog;

2)这个 x 列只能存储类型定义中列出的值:’hello’或’world’

INSERT INTO t_enum VALUES ('hello'), ('world'), ('hello');

3)如果尝试保存任何其他值,ClickHouse 抛出异常

INSERT INTO t_enum VALUES('a');

4)如果需要看到对应行的数值,则必须将 Enum 值转换为整数类型

SELECT CAST(x, 'Int8') FROM t_enum;

3.7 时间类型

目前 ClickHouse 有三种时间类型

  • Date 接受年-月-日的字符串比如 ‘2019-12-16’
  • Datetime 接受年-月-日 时:分:秒的字符串比如 ‘2019-12-16 20:50:10’
  • Datetime64 接受年-月-日 时:分:秒.亚秒的字符串比如 ‘2019-12-16 20:50:10.66’

日期类型,用两个字节存储,表示从 1970-01-01 (无符号) 到当前的日期值。

3.8 数组

Array(T):由 T 类型元素组成的数组。

T 可以是任意类型,包含数组类型。但不推荐使用多维数组,ClickHouse 对多维数组的支持有限。例如,不能在 MergeTree 表中存储多维数组。

(1)创建数组方式 1,使用 array 函数

(2)创建数组方式 2:使用方括号

4、 表引擎

数据库引擎使用教程

4.1 表引擎的使用

表引擎决定了如何存储表的数据。包括:

  • 数据的存储方式和位置,写到哪里以及从哪里读取数据。
  • 支持哪些查询以及如何支持。
  • 并发数据访问。
  • 索引的使用(如果存在)
  • 是否可用执行多线程请求
  • 数据复制参数

表引擎的使用方式就是必须显示在创建表时定义该表使用的引擎,以及引擎使用的相关参数。

特别注意:引擎的名称大小写敏感

4.2 TinyLog

以列文件的形式保存在磁盘上,不支持索引没有并发控制。一般保存少量数据的小表,生产环境上作用有限。

CREATE TABLE IF NOT EXISTS t_tinylog
(
	`id` String,
    `name` String
)ENGINE = TinyLog;

4.3 Memory

内存引擎,数据以未压缩的原始形式直接保存在内存当中,服务器重启数据就会消失。读写操作不会相互阻塞,不支持索引。简单查询下有非常非常高的性能表现(超过 10G/s)。

4.4 MergeTree(重点)

ClickHouse中最强大的表引擎当属MergeTree(合并树)引擎及该系列(*MergeTree)中的其他引擎,支持索引和分区

建表语句:

CREATE TABLE IF NOT EXISTS t_order_mt(
	id UInt32,
    sku_id String,
    total_amount Decimal(16,2),
    create_time Datetime
)ENGINE = MergeTree
PARTITION BY toYYYYMMDD(create_time)
PRIMARY KEY(id)
ORDER BY(id,sku_id);

参数介绍:

  • ENGINE:选择创建表的引擎
  • PARTITION BY:分区,跟Hive里的作用一样
  • PRIMARY KEY:设置主键。这里的主键跟mysql不一样,主键可以不唯一
  • ORDER BY:分组(必须参数

插入数据:

INSERT INTO t_order_mt VALUES
(101,'sku_001',1000.00,'2020-06-01 12:00:00'),
(102,'sku_002',2000.00,'2020-06-01 11:00:00'),
(102,'sku_004',2500.00,'2020-06-01 12:00:00'),
(102,'sku_002',2000.00,'2020-06-01 13:00:00'),
(102,'sku_002',12000.00,'2020-06-01 13:00:00'),
(102,'sku_002',600.00,'2020-06-02 12:00:00');

查看结果:

至于为什么会分成2片,因为PARTITION BY toYYYYMMDD(create_time)。按create_time 的年月日进行分区

MergeTree 其实还有很多参数(绝大多数用默认值即可),但是这三个参数是更加重要的,也涉及了关于 MergeTree 的很多概念。

4.4.1 partition by分区(可选)

  • 作用

跟Hive里的一样,降低扫描的范围,优化查询速度

  • 如果不填

只会使用一个分区——all

  • 分区目录

MergeTree是以列文件 + 索引文件 + 表定义文件组成的,但是如果设定了分区那么这些文件就会保存到不同的分区目录中。

分区目录文件命名规则:PartitionId_MinBlockNum_MaxBlockNum_Level(分区值_最小分区_最大分区块编号_合并层级)

  • PartitionId:
    • 数据分区 ID 生成规则
    • 数据分区规则由分区 ID 决定,分区ID由 PARTITION BY 分区键决定。根据分区键字段类型,ID生成规则可以分为:
      • 未定义分区键:没有定义 PARTITION BY ,默认生成一个目录名为 all 的数据分区,所有数据均存放在 all 目录下。
      • 整型分区键:分区键为整型,那么直接用该整型值的字符串形式作为分区ID。
      • 日期类分区键:分区键为日期类型,或者可以转化成日期类型。
      • 其他类型分区键:String、Float 类型等,通过128位的 Hash 算法取其 Hash 值作为分区ID
    • MinBlockNum:最小分区块编号,自增类型,从1开始向上递增。每产生一个新的目录分区就向上递增一个数字。
    • MaxBlockNum:最大分区块编号,新创建的分区 MinBlockNum 等于 MaxBlockNum 的编号。
    • Level:合并的层级,被合并的次数。合并次数越多,层级值越大。

分区文件内部信息:

  • 并行

分区后,面对涉及跨分区的查询统计,ClickHouse 会以分区为单位并行处理

  • 数据写入与分区合并

任何一个批次的数据写入都会产生一个临时分区,不会纳入任何一个已有的分区。写入后的某个时刻(大概 10-15 分钟后),ClickHouse 会自动执行合并操作(等不及也可以手动通过 optimize 执行),把临时分区的数据,合并到已有分区中。

OPTIMIZE TABLE xxxx [PARTITION BY] FINAL;

例如:

插入之前的数据:

INSERT INTO t_order_mt VALUES
(101,'sku_001',1000.00,'2020-06-01 12:00:00'),
(102,'sku_002',2000.00,'2020-06-01 11:00:00'),
(102,'sku_004',2500.00,'2020-06-01 12:00:00'),
(102,'sku_002',2000.00,'2020-06-01 13:00:00'),
(102,'sku_002',12000.00,'2020-06-01 13:00:00'),
(102,'sku_002',600.00,'2020-06-02 12:00:00');

查看结果:

可以看到变成4个分区了,理论上应该还是2个。

大概 10-15 分钟后,或者手动通过 optimize 执行,分区会合并

OPTIMIZE TABLE t_order_mt FINAL;

# 只针对某一个分区做合并操作
OPTIMIZE TABLE xxxx PARTITION 'yyyy' FINAL;

4.4.2 primary key主键(可选)

ClickHouse 中的主键,和其他数据库不太一样,它只提供了数据的一级索引,但是却不是唯一约束。这就意味着是可以存在相同 primary key 的数据的。

主键的设定主要依据是查询语句中的 where 条件。

根据条件通过对主键进行某种形式的二分查找,能够定位到对应的 index granularity,避免了全表扫描。

index granularity:直接翻译的话就是索引粒度,指在稀疏索引两个相邻索引对应数据的间隔。ClickHouse 中的 MergeTree 默认是 8192。官方不建议修改这个值,除非该列存在大量重复值,比如在一个分区中几万行才有一个不同数据。

稀疏索引的好处就是可以用很少的索引数据,定位更多的数据,代价就是只能定位到索引粒度的第一行,然后再进行进行一点扫描。

4.4.3 order by(必选)

order by 设定了分区内的数据按照哪些字段顺序进行有序保存。

order by 是 MergeTree 中唯一一个必填项,甚至比 primary key 还重要,因为当用户不设置主键的情况,很多处理会依照 order by 的字段进行处理。

要求:主键必须是 order by 字段的前缀字段。

比如 order by 字段是 (id, sku_id) 那么主键必须是 id 或者(id, sku_id)

4.4.4 二级索引

目前在 ClickHouse 的官网上二级索引的功能在 v20.1.2.4 之前是被标注为实验性的,在这个版本之后默认是开启的。

老版本使用二级索引前需要增加设置

set allow_experimental_data_skipping_indices=1;

创建测试表:

CREATE TABLE t_order_mt2
(
    `id` UInt32,
    `sku_id` String,
    `total_amount` Decimal(16, 2),
    `create_time` Datetime,
    INDEX a total_amount TYPE minmax GRANULARITY 5
)
ENGINE = MergeTree
PARTITION BY toYYYYMMDD(create_time)
PRIMARY KEY id
ORDER BY (id, sku_id);

其中 GRANULARITY N 是设定二级索引对于一级索引粒度的粒度。

4.4.5 数据TTL

TTL 即 Time To Live,MergeTree 提供了可以管理数据或者生命周期的功能。

就是将过期时间设置成默认值


列级别TTL

1) 创建测试表:

CREATE TABLE t_order_mt3
(
    `id` UInt32,
    `sku_id` String,
    `total_amount` Decimal(16, 2) TTL create_time + INTERVAL 10 SECOND,
    `create_time` Datetime
)
ENGINE = MergeTree
PARTITION BY toYYYYMMDD(create_time)
PRIMARY KEY id
ORDER BY (id, sku_id);

2) 插入数据

INSERT INTO t_order_mt3 VALUES
(101, 'sku_001', 1000.00, NOW()),
(102, 'sku_002', 2000.00, NOW()),
(103, 'sku_003', 600.00, NOW() + INTERVAL 1 MINUTE);

NOW()获取当前时间

3)查看结果,时间过期后,会将指定字段变成默认值


表级别TTL

1) 删除过期数据

下面的这条语句是数据会在create_time 之后的 10秒丢失

ALTER TABLE t_order_mt3 MODIFY TTL create_time + INTERVAL 10 SECOND;

涉及判断的字段必须是Date 或者Datetime 类型,推荐使用分区的日期字段

表里的数据全都过期了,所以查询为0

能够只用的时间周期:

  • SECOND
  • MINUTE
  • HOUR
  • DAY
  • WEEK
  • MONTH
  • QUARTER
  • YEAR

4.5 ReplacingMergeTree

ReplacingMergeTree 是 MergeTree 的一个变种,它存储特性完全继承 MergeTree,只是多了一个去重的功能。 尽管 MergeTree 可以设置主键,但是 primary key 其实没有唯一约束的功能。如果你想处理掉重复的数据,可以借助这个 ReplacingMergeTree。(根据order by字段去重

  • 去重时机

数据的去重只会在合并的过程中出现。合并会在未知的时间在后台进行,所以你无法预先作出计划,有一些数据可能仍未被处理。

  • 去重范围

如果表经过了分区,去重只会在分区内部进行去重,不能执行跨分区的去重。

所以ReplacingMergeTree 能力有限,ReplacingMergeTree 适用于在后台清理重复的数据以节省空间,但是它不保证没有重复的数据出现。

1) 创建表

CREATE TABLE t_order_rmt
(
    `id` UInt32,
    `sku_id` String,
    `total_amount` Decimal(16, 2),
    `create_time` Datetime
)
ENGINE = ReplacingMergeTree(create_time)
PARTITION BY toYYYYMMDD(create_time)
PRIMARY KEY id
ORDER BY (id, sku_id);

ReplacingMergeTree() 填入的参数为版本字段,重复数据保留版本字段值最大的

如果不填版本字段,默认按照插入顺序保留最后一条

2) 插入数据

INSERT INTO t_order_rmt VALUES
(101, 'sku_001', 1000.00, '2020-06-01 12:00:00'),
(102, 'sku_002', 2000.00, '2020-06-01 11:00:00'),
(102, 'sku_004', 2500.00, '2020-06-01 12:00:00'),
(102, 'sku_002', 2000.00, '2020-06-01 13:00:00'),
(102, 'sku_002', 12000.00, '2020-06-01 13:00:00'),
(102, 'sku_002', 600.00, '2020-06-02 12:00:00');

3)重复步骤 2)的操作,再进行查询,查看结果

4)手动合并

OPTIMIZE TABLE t_order_rmt FINAL;

5)查看结果

重复的数据给去除了


结论:

  • 实际上是使用 order by 字段作为唯一键
  • 去重不能跨分区
  • 只有同一批插入(新版本)或合并分区时才会进行去重
  • 认定重复的数据保留,取版本字段值最大的
  • 如果版本字段相同则按插入顺序保留最后一笔

4.6 SummingMergeTree

对于不查询明细,只关心以维度进行汇总聚合结果的场景。如果只使用普通的MergeTree的话,无论是存储空间的开销,还是查询时临时聚合的开销都比较大。

ClickHouse 为了这种场景,提供了一种能够预聚合的引擎 SummingMergeTree

1) 创建表

CREATE TABLE t_order_smt
(
    `id` UInt32,
    `sku_id` String,
    `total_amount` Decimal(16, 2),
    `create_time` Datetime
)
ENGINE = SummingMergeTree(total_amount)
PARTITION BY toYYYYMMDD(create_time)
PRIMARY KEY id
ORDER BY (id, sku_id);

针对 total_amount 字段进行聚合

2) 插入数据

INSERT INTO t_order_smt VALUES
(101, 'sku_001', 1000.00, '2020-06-01 12:00:00'),
(102, 'sku_002', 2000.00, '2020-06-01 11:00:00'),
(102, 'sku_004', 2500.00, '2020-06-01 12:00:00'),
(102, 'sku_002', 2000.00, '2020-06-01 13:00:00'),
(102, 'sku_002', 12000.00, '2020-06-01 13:00:00'),
(102, 'sku_002', 600.00, '2020-06-02 12:00:00');

3) 重复步骤 2)的操作,再进行查询,查看结果:

4) 手动合并

OPTIMIZE TABLE t_order_smt FINAL;

5) 查看结果

注意保留的时间,保留的是最早的时间


结论:

  • 以 SummingMergeTree()中指定的列作为汇总数据列
  • 可以填写多列必须数字列,如果不填,以所有非维度列且为数字列的字段为汇总数据列(非维度列指除了order by字段的字段)
  • 以 order by 的列为准,作为维度列
  • 其他的列按插入顺序保留第一行
  • 不在一个分区的数据不会被聚合
  • 只有在同一批次插入(新版本)或分片合并时才会进行聚合

开发建议:

设计聚合表的话,唯一键值、流水号可以去掉,所有字段全部是维度、度量或者时间戳。


小问题:

能不能直接执行以下 SQL 得到汇总值(就是没有用 SUM() 方法获得汇总值)

SELECT total_amount FROM XXX WHERE province_name = '' AND create_date = 'xxx';

不行,可能会包含一些还没来得及聚合的临时明细

因为在实际开发中,是不能(不建议)一直调用optimize 来进行手动合并的,现在只是为了更好的演示。因此还是需要使用SUM 进行聚合。

SELECT SUM(total_amount) FROM XXX WHERE province_name = '' AND create_date = 'xxx'

5、 SQL操作

基本上来说传统关系型数据库(以 MySQL 为例)的 SQL 语句,ClickHouse 基本都支持,这里只介绍 ClickHouse 与标准 SQL(MySQL)不一致的地方。

5.1 Insert

与标准SQL(MySQL)基本一致

1) 基本插入

INSERT INTO table_name [field_name1,field_name2,...] VALUES (...),(...);

2) 从表到表的插入

INSERT INTO table_name1 SELECT a,b,c FROM table_name2;

5.2 Update 和 Delete

ClickHouse 提供了 Delete 和 Update 的能力,这类操作被称为 Mutation 查询(突变查询),它可以看做 Alter 的一种。

虽然可以实现修改和删除,但是和一般的 OLTP 数据库不一样,Mutation 语句是一种很“重”的操作,而且不支持事务。

“重”的原因主要是每次修改或者删除都会导致放弃目标数据的原有分区,重建新分区。所以尽量做批量的变更,不要进行频繁小数据的操作


1) 删除操作

ALTER TABLE [db.]table_name [ON CLUSTER cluster] DELETE WHERE filter_expr

2) 修改操作

ALTER TABLE [db.]table_name [ON CLUSTER cluster] UPDATE column1 = expr1 [, ...] WHERE filter_expr

实践:

ALTER TABLE t_order_smt DELETE WHERE sku_id = 'sku_001';

ALTER TABLE t_order_smt UPDATE total_amount = toDecimal32(2000.00, 2) WHERE id = 102;

由于操作比较“重”,所以 Mutation 语句分两步执行,同步执行的部分其实只是进行新增数据新增分区和并把旧分区打上逻辑上的失效标记。直到触发分区合并的时候,才会删除旧数据释放磁盘空间,一般不会开放这样的功能给用户,由管理员完成。

一般clickhouse 是不推荐执行delete 和update 操作的。

5.3 查询操作

ClickHouse 基本上与标准 SQL 差别不大

  • 支持子查询
  • 支持CTE
  • 支持各种 JOIN ,但是 JOIN 操作无法使用缓存,所以即使是两次相同的 JDON 语句,ClickHouse 也会视为两条新SQL
  • 支持窗口函数
  • 支持自定义函数
  • GROUP BY 操作增加了 with rollup\with cube\with total 用来计算小计和总计

1) 插入数据

-- 清空数据
ALTER TABLE t_order_mt DELETE WHERE 1 = 1;
-- 插入数据
INSERT INTO t_order_mt VALUES
(101,'sku_001',1000.00,'2020-06-01 12:00:00'),
(101,'sku_002',2000.00,'2020-06-01 12:00:00'),
(103,'sku_004',2500.00,'2020-06-01 12:00:00'),
(104,'sku_002',2000.00,'2020-06-01 12:00:00'),
(105,'sku_003',600.00,'2020-06-02 12:00:00'),
(106,'sku_001',1000.00,'2020-06-04 12:00:00'),
(107,'sku_002',2000.00,'2020-06-04 12:00:00'),
(108,'sku_004',2500.00,'2020-06-04 12:00:00'),
(109,'sku_002',2000.00,'2020-06-04 12:00:00'),
(110,'sku_003',600.00,'2020-06-01 12:00:00');

2) with rollup:从右至左掉维度进行小计

SELECT id, sku_id, SUM(total_amount) FROM t_order_mt GROUP BY id, sku_id WITH ROLLUP;

3) with cube:从右至左去掉维度进行小计,再从左至右去掉维度进行小计

SELECT id, sku_id, sum(total_amount) FROM t_order_mt GROUP BY id, sku_id WITH CUBE;

4) with totals:只计算合计

SELECT id, sku_id, sum(total_amount) FROM t_order_mt GROUP BY id, sku_id WITH TOTALS;

5.4 alter 操作

同 MySQL 的修改字段基本一致

  • 新增字段
ALTER TABLE table_name ADD COLUMN new_colname String AFTER coll;
  • 修改字段类型
ALTER TABLE table_name MODIFY COLUMN new_colname String;
  • 删除字段
ALTER TABLE table_name DROP COLUMN new_colname;

5.5 导出数据

cliclhouse-client --query "select * from t_order_mt where create_time='2020-06-01 12:00:00'" --format CSVWithNames> /opt/module/data/rs1.csv

查看更多支持格式

6、副本

副本的目的主要是保障数据的高可用性,即使一台 ClickHouse 节点宕机,那么也可以从其他服务器获得相同的数据。

6.1 副本写入流程

6.2 配置步骤

1) 启动zookeeper 集群

2) 在hadoop111上的/etc/clickhouse-server/config.d 目录下创建一个名为 metrika.xml 的配置文件,添加如下数据

<?xml version="1.0"?>
<yandex>
    <zookeeper-servers>
        <node index="1">
            <host>hadoop111</host>
            <port>2181</port>
        </node>
        <node index="2">
            <host>hadoop112</host>
            <port>2181</port>
        </node>
        <node index="3">
            <host>hadoop113</host>
            <port>2181</port>
        </node>
    </zookeeper-servers>
</yandex>

也可直接在/etc/clickhouse-server/config.xml 文件中编辑

3) 同步到 hadoop112 和 hadoop113 上

scp -r metrika.xml hadoop112:$PWD
scp -r metrika.xml hadoop113:$PWD

4) 在hadoop111 的/etc/clickhouse-server/config.xml 文件中增加

<zookeeper incl="zookeeper-servers" optional="true" />
<include_from>/etc/clickhouse-server/config.d/metrika.xml</include_from>

5) 同步到hadoop112 和 hadoop113 上

6) 分别重启clickhouse 服务

7) 在 hadoop111、hadoop112 和hadoop113 上分别建表

副本只能同步数据,不能同步表结构,所以我们需要在每台机器上自己手动建表

  • hadoop111
CREATE TABLE t_order_rep2
(
    `id` UInt32,
    `sku_id` String,
    `total_amount` Decimal(16, 2),
    `create_time` Datetime
)
ENGINE = ReplicatedMergeTree('/clickhouse/table/01/t_order_rep', 'rep_111')
PARTITION BY toYYYYMMDD(create_time)
PRIMARY KEY id
ORDER BY (id, sku_id);
  • hadoop112
CREATE TABLE t_order_rep2
(
    `id` UInt32,
    `sku_id` String,
    `total_amount` Decimal(16, 2),
    `create_time` Datetime
)
ENGINE = ReplicatedMergeTree('/clickhouse/table/01/t_order_rep', 'rep_112')
PARTITION BY toYYYYMMDD(create_time)
PRIMARY KEY id
ORDER BY (id, sku_id);
  • hadoop113
CREATE TABLE t_order_rep2
(
    `id` UInt32,
    `sku_id` String,
    `total_amount` Decimal(16, 2),
    `create_time` Datetime
)
ENGINE = ReplicatedMergeTree('/clickhouse/table/01/t_order_rep', 'rep_113')
PARTITION BY toYYYYMMDD(create_time)
PRIMARY KEY id
ORDER BY (id, sku_id);

在ReplicatedMergeTree(副本引擎)中,

第一个参数是分片的zk_path 一般按照:/clickhouse/table/{shard}/{table_name} 的格式写,如果只有一个分片就写 01 即可。

第二个参数是副本名称, 形同的分片副本名称不能相同。

7) 在hadoop111 上执行insert 语句

INSERT INTO t_order_rep2 VALUES
(101,'sku_001',1000.00,'2020-06-01 12:00:00'),
(102,'sku_002',2000.00,'2020-06-01 12:00:00'),
(103,'sku_004',2500.00,'2020-06-01 12:00:00'),
(104,'sku_002',2000.00,'2020-06-01 12:00:00'),
(105,'sku_003',600.00,'2020-06-02 12:00:00');

8) 在hadoop112 上执行 select,可以查询出结果,说明副本配置正确

SELECT * FROM t_order_rep2;

7、 分片集群

副本虽然能够提高数据的可用性,降低丢失风险,但是每台服务器实际上必须容纳全量数据,对数据的横向扩容没有解决。

要解决数据水平切分的问题,需要引入分片的概念。通过分片把一份完整的数据进行切分,不同的分片分布到不同的节点上,再通过 Distributed 表引擎把数据拼接起来一同使用。

Distributed 表引擎本身不存储数据,有点类似于 MyCat 之于 MySql,成为一种中间件,通过分布式逻辑表来写入、分发、路由来操作多台节点不同分片的分布式数据。

注意:ClickHouse 的集群是表级别,实际企业中,大部分做了高可用,但是没有用分片,避免降低查询性能以及操作集群的复杂性。

7.1 集群写入流程(3分片2副本共6个节点)

可以看到,true 参数是由上一级来进行书写的,false 参数是完全由distribute 控制的,对distribute 的开销很大,一般是设置为开启

7.2 集群读取流程(3分片2副本共6个节点)

7.3 3分片2副本共6个节点集群配置(供参考)

1) 在hadoop111 的/etc/clickhouse-server/config.d 目录下创建 metrika-shard.xml 文件

<yandex>
    <remote_servers>
        <!-- 集群名称-->
        <pzb_cluster>
            <!--集群的第一个分片-->
            <shard>
                <internal_replication>true</internal_replication>
                <!--该分片的第一个副本-->
                <replica>
                    <host>hadoop111</host>
                    <port>9000</port>
                </replica>
                <!--该分片的第二个副本-->
                <replica>
                    <host>hadoop112</host>
                    <port>9000</port>
                </replica>
            </shard>
            <!--集群的第二个分片-->
            <shard>
                <internal_replication>true</internal_replication>
                <!--该分片的第一个副本-->
                <replica>
                    <host>hadoop113</host>
                    <port>9000</port>
                </replica>
                <!--该分片的第二个副本-->
                <replica>
                    <host>hadoop114</host>
                    <port>9000</port>
                </replica>
            </shard>
            <!--集群的第三个分片-->
            <shard>
                <internal_replication>true</internal_replication>
                <!--该分片的第一个副本-->
                <replica>
                    <host>hadoop115</host>
                    <port>9000</port>
                </replica>
                <!--该分片的第二个副本-->
                <replica>
                    <host>hadoop116</host>
                    <port>9000</port>
                </replica>
            </shard>
        </pzb_cluster>
    </remote_servers>
</yandex>

注意:也可以不创建外部文件,直接在 config.xml 的 <remote_servers> 中指定

7.4 配置三节点版本集群及副本

本人的集群只有3 个节点

7.4.1 集群及副本规划(2 个分片,只有第一个分片有副本)

hadoop111 hadoop112 hadoop113
01 01 02
rep_1_1 rep_1_2 rep_2_1

7.4.2 配置步骤

1) 在hadoop112 的 /etc/clickhouse-server/config.d 目录下创建 metrika-shard.xml 文件

<?xml version="1.0"?>
<yandex>
    <remote_servers>
        <!-- 集群名称-->
        <pzb_cluster>
            <!--集群的第一个分片-->
            <shard>
                <internal_replication>true</internal_replication>
                <!--该分片的第一个副本-->
                <replica>
                    <host>hadoop111</host>
                    <port>9000</port>
                </replica>
                <!--该分片的第二个副本-->
                <replica>
                    <host>hadoop112</host>
                    <port>9000</port>
                </replica>
            </shard>
            <!--集群的第二个分片-->
            <shard>
                <internal_replication>true</internal_replication>
                <!--该分片的第一个副本-->
                <replica>
                    <host>hadoop113</host>
                    <port>9000</port>
                </replica>
            </shard>
        </pzb_cluster>
    </remote_servers>
    <zookeeper-servers>
        <node index="1">
            <host>hadoop111</host>
            <port>2181</port>
        </node>
        <node index="2">
            <host>hadoop112</host>
            <port>2181</port>
        </node>
        <node index="3">
            <host>hadoop113</host>
            <port>2181</port>
        </node>
    </zookeeper-servers>
    <macros>
        <!--不同机器放的分片数不一样-->
        <shard>01</shard>
        <!--不同机器放的副本数不一样-->
        <replica>rep_1_1</replica>
    </macros>
</yandex>

2) 将hadoop111 的 metrika-shard.xml 同步到hadoop112 和hadoop113

3) 修改hadoop112 和hadoop113 中 metrika-shard.xml 宏的配置

  • hadoop112

  • hadoop113

4) 在hadoop111 上修改/etc/clickhouse-server/config.xml

之前设置副本时更改过的文件

5)同步/etc/clickhouse-server/config.xml 到hadoop112 和hadoop113

6)重启三台服务器上的clickhouse 服务

clickhouse restart

7) 在hadoop111 上执行建表语句

  • 会自动同步到hadoop112 和 hadoop113上
  • 集群名字要与配置文件中的一致
  • 分片和副本名称从配置文件的宏定义中获取
CREATE TABLE st_order_mt ON CLUSTER pzb_cluster
(
    `id` UInt32,
    `sku_id` String,
    `total_amount` Decimal(16, 2),
    `create_time` Datetime
)
ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/st_order_mt', '{replica}')
PARTITION BY toYYYYMMDD(create_time)
PRIMARY KEY id
ORDER BY (id, sku_id);

可以到hadoop112 和hadoop113 上查看表是否创建成功

8) 在hadoop111 上创建 Distribute 分布式表

CREATE TABLE st_order_mt_all2 ON CLUSTER pzb_cluster
(
    `id` UInt32,
    `sku_id` String,
    `total_amount` Decimal(16, 2),
    `create_time` Datetime
)
ENGINE = Distributed(pzb_cluster, default, st_order_mt, hiveHash(sku_id));

参数含义

  • Distribute(集群名字,库名,本地表名,分片键)
  • 分片键必须是整型数字,所以用hiveHash 函数转换,也可以 rand()

9) 在hadoop111 上插入测试数据

INSERT INTO st_order_mt_all2 VALUES
(201,'sku_001',1000.00,'2020-06-01 12:00:00') ,
(202,'sku_002',2000.00,'2020-06-01 12:00:00'),
(203,'sku_004',2500.00,'2020-06-01 12:00:00'),
(204,'sku_002',2000.00,'2020-06-01 12:00:00'),
(205,'sku_003',600.00,'2020-06-02 12:00:00');
  • 分布式表
SELECT * FROM st_order_mt_all2;

  • 本地表
SELECT * FROM st_order_mt;

hadoop111:

hadoop112:

hadoop112 是hadoop111 的副本

hadoop113:

标签:sku,00,06,入门,id,2020,order,ClickHouse
From: https://www.cnblogs.com/Mr-Sponge/p/17031306.html

相关文章