TiDB部署环境
一台虚拟机 内存5G/CPU 4c
Centos7.9 x86_64(数据盘文件格式ext4)
第 一 步:软硬件前置准备
1、关闭系统swap
echo "vm.swappiness = 0">> /etc/sysctl.conf
swapoff -a
sysctl -p
cat /etc/sysctl.conf | grep swap
2、关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
systemctl status firewalld
setenforce 0
vi /etc/selinux/config
3、安装NTP时间同步组件
yum install -y ntp
systemctl status ntpd
4、ssh免密
cd /root
ssh-keygen
ssh-copy-id root@目标IP地址
5、安装numactl
yum install numactl
6、系统优化配置
关闭透明大页,首先查看状态
cat /sys/kernel/mm/transparent_hugepage/enabled
[always] madvise never 表示透明大页处于启用状态,需要关闭。
关闭透明大页
echo never > /sys/kernel/mm/transparent_hugepage/enabled
echo never > /sys/kernel/mm/transparent_hugepage/defrag
修改配置文件 /etc/rc.local
vi /etc/rc.local
source /etc/rc.local
chmod +x /etc/rc.local
cat /sys/kernel/mm/transparent_hugepage/enabled
执行以下命令修改 sysctl 参数
echo "fs.file-max = 1000000">> /etc/sysctl.conf
echo "net.core.somaxconn = 32768">> /etc/sysctl.conf
echo "net.ipv4.tcp_tw_recycle = 0">> /etc/sysctl.conf
echo "net.ipv4.tcp_syncookies = 0">> /etc/sysctl.conf
echo "vm.overcommit_memory = 1">> /etc/sysctl.conf
sysctl -p
执行以下命令配置用户的 limits.conf 文件
cat << EOF >>/etc/security/limits.conf
tidb soft nofile 1000000
tidb hard nofile 1000000
tidb soft stack 32768
tidb hard stack 32768
EOF
第 二 步:安装部署、管理集群
1、部署TiUP组件
准备 TiUP 离线组件包
在选择对应版本的 TiDB server 离线镜像包(包含 TiUP 离线组件包)。需要同时下载 TiDB-community-server 软件包和 TiDB-community-toolkit 软件包。
部署离线环境 TiUP 组件
将离线包发送到目标集群的中控机后,执行以下命令安装 TiUP 组件:
version=v7.5.0
tar -xvf tidb-community-server-${version}-linux-amd64.tar.gz
sh tidb-community-server-${version}-linux-amd64/local_install.sh
source /root/.bash_profile
合并离线包
执行以下命令合并离线组件到 server 目录下。
version=v7.5.0
tar xf tidb-community-toolkit-${version}-linux-amd64.tar.gz
ls -ld tidb-community-server-${version}-linux-amd64 tidb-community-toolkit-${version}-linux-amd64
cd tidb-community-server-${version}-linux-amd64/
cp -rp keys ~/.tiup/
tiup mirror merge ../tidb-community-toolkit-${version}-linux-amd64
2、初始化集群拓扑文件
执行以下命令,生成集群配置文件:
tiup cluster template --full > /root/tidb.yaml
vi /root/tidb.yaml
配置模板如下:
# # Global variables are applied to all deployments and used as the default value of # # the deployments if a specific deployment value is missing. global: user: "tidb" ssh_port: 22 deploy_dir: "/tidb-deploy" data_dir: "/tidb-data" # # Monitored variables are applied to all the machines. monitored: node_exporter_port: 9100 blackbox_exporter_port: 9115 server_configs: tidb: instance.tidb_slow_log_threshold: 300 tikv: readpool.storage.use-unified-pool: false readpool.coprocessor.use-unified-pool: true pd: replication.enable-placement-rules: true replication.location-labels: ["host"] tiflash: logger.level: "info" pd_servers: - host: 10.0.1.1 tidb_servers: - host: 10.0.1.1 tikv_servers: - host: 10.0.1.1 port: 20160 status_port: 20180 config: server.labels: { host: "logic-host-1" } - host: 10.0.1.1 port: 20161 status_port: 20181 config: server.labels: { host: "logic-host-2" } - host: 10.0.1.1 port: 20162 status_port: 20182 config: server.labels: { host: "logic-host-3" } tiflash_servers: - host: 10.0.1.1 monitoring_servers: - host: 10.0.1.1 grafana_servers: - host: 10.0.1.1 TiDB 数据库快速上手指南 | PingCAP 文档中心
由于单节点测试环境硬件配置较低,需要注意地方:tikv和tiflash需配置在不同分区,否则会报错,更改配置文件tidb.yaml即可。
3、执行部署命令
执行部署命令前,先使用 check 及 check --apply 命令检查和自动修复集群存在的潜在风险:
tiup cluster check /root/tidb.yaml --user root
报错解决方法:挂载盘参数修改 nodelalloc
tiup cluster check /root/tidb.yaml --apply --user root
运行部署命令:
tiup cluster deploy tidb-test v7.5.0 tidb.yaml --user root
到此表示tidb集群部署完成。
管理集群相关命令
查看集群状态、启动集群命令:
tiup cluster list
tiup cluster display tidb-test
tiup cluster start tidb-test
————————————————
版权声明:本文为CSDN博主「linnana」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/linnana/article/details/135499758