首页 > 其他分享 >k8s-外置ETCD集群部署

k8s-外置ETCD集群部署

时间:2023-05-04 17:56:09浏览次数:49  
标签:opt https ETCD 外置 cfssl etcd k8s 172.23

如何把ETCD的数据库备份,以及还原的操作方法(待更新中)

地址:

Etcd 是一个分布式键值存储系统,Kubernetes使用Etcd进行数据存储,所以先准备一个Etcd数据库,为解决Etcd单点故障,应采用集群方式部署,这里使用3台组建集群,可容忍1台机器故障。为了节省机器,这里把3个ETCD实例分别部署在一个Matser节点和两个Node节点上。

ETCD实例        IP
etcd-1         172.23.199.15
etcd-2         172.23.199.16
etcd-3         172.23.199.17

1.准备cfssl证书生成工具

# 安装cfssl证书生成工具(如果下载不了,可尝试换成http协议)
wget https://pkg.cfssl.org/R1.2/cfssl_linux-amd64
wget https://pkg.cfssl.org/R1.2/cfssljson_linux-amd64
wget https://pkg.cfssl.org/R1.2/cfssl-certinfo_linux-amd64

chmod +x cfssl_linux-amd64 cfssljson_linux-amd64 cfssl-certinfo_linux-amd64

mv cfssl_linux-amd64 /usr/local/bin/cfssl
mv cfssljson_linux-amd64 /usr/local/bin/cfssljson
mv cfssl-certinfo_linux-amd64 /usr/bin/cfssl-certinfo

2.生成ETCD证书

# 生成自签证书的根证书:创建文件夹
mkdir -p ~/TLS/{etcd,k8s}
cd /root/TLS/etcd
# 生成自签证书的根证书:文件夹中写入配置文件2个
# 配置文件1
cat > ca-config.json  ca-csr.json 
# 执行如下指令生成证书
cfssl gencert -initca ca-csr.json | cfssljson -bare ca -

接下来,使用自签的根证书签发ETCD HTTPS证书

#5、创建证书申请文件
cat > server-csr.json 

注意:上面配置文件中hosts字段中的IP为所有etcd节点的集群内部通信IP,为了方便后期扩容可以多写几个预留IP

# 生成证书
cfssl gencert -ca=ca.pem -ca-key=ca-key.pem -config=ca-config.json -profile=www server-csr.json | cfssljson -bare server

3.下载ETCD的二进制文件

https://github.com/etcd-io/etcd/releases/download/v3.4.9/etcd-v3.4.9-linux-amd64.tar.gz

4.部署ETCD集群

以下操作只在节点1(Master)上进行一遍,至于节点2(node01)、节点3(node02),直接从节点1中把结果拷贝过去即可。

1)创建工作目录并解压二进制包

mkdir -pv /opt/etcd/{bin,cfg,ssl}
tar zxvf etcd-v3.4.9-linux-amd64.tar.gz
mv etcd-v3.4.9-linux-amd64/{etcd,etcdctl} /opt/etcd/bin/

2)创建ETCD配置文件

cat > /opt/etcd/cfg/etcd.conf 

配置文件中各个参数含义如下:

#ETCD_NAME:节点名称,集群中唯一
#ETCD_DATA_DIR:数据目录
#ETCD_LISTEN_PEER_URLS:集群通信监听地址
#ETCD_LISTEN_CLIENT_URLS:客户端访问监听地址
#ETCD_INITIAL_ADVERTISE_PEER_URLS:集群通告地址
#ETCD_ADVERTISE_CLIENT_URLS:客户端通告地址
#ETCD_INITIAL_CLUSTER:集群节点地址
#ETCD_INITIAL_CLUSTER_TOKEN:集群Token
#ETCD_INITIAL_CLUSTER_STATE:加入集群的当前状态,new是新集群,existing表示加入已有集群

3)systemd管理etcd

cat > /usr/lib/systemd/system/etcd.service 

4)拷贝证书到配置文件路径下

cp ~/TLS/etcd/ca*pem ~/TLS/etcd/server*pem /opt/etcd/ssl/

5)启动,并设置开机启动

systemctl daemon-reload && systemctl enable etcd && systemctl start etcd && systemctl status etcd

注意:systemctl start etcd 指令执行之后会“卡住”因为其他的ETCD节点还没部署呢。还有防火墙需要把 23792380 的端口开通起来,否则执行启动etcd服务也会卡住的。

输入以下的指令可以查看日志:

#把和etcd有关的日志保存到a文件中,再从a中检索和ip相关的内容,下图截取了其中的一部分
#注意:本步骤不是必须要执行的
journalctl -u etcd > a
cat a grep|172.23.199.15

6)将上述节点1所有生成的文件拷贝到节点2和节点3

#分别拷贝etcd的工作目录、管理服务的配置文件到另外两台主机
scp -r /opt/etcd/ root@k8s-node01:/opt/
scp /usr/lib/systemd/system/etcd.service root@k8s-node01:/usr/lib/systemd/system/

scp -r /opt/etcd/ root@k8s-node02:/opt/
scp /usr/lib/systemd/system/etcd.service root@k8s-node02:/usr/lib/systemd/system/

注意:需要修改ETCD配置文件参数(共5处修改点),分别修改另外2个ETCD的参数

vi /opt/etcd/cfg/etcd.conf
#[Member]
ETCD_NAME="etcd-1"                 # 修改1,节点2改为etcd-2,节点3改为etcd-3
ETCD_LISTEN_PEER_URLS="https://172.23.199.15:2380"    # 修改2 当前服务器IP
ETCD_LISTEN_CLIENT_URLS="https://172.23.199.15:2379"  # 修改3 当前服务器IP
 
#[Clustering]
ETCD_INITIAL_ADVERTISE_PEER_URLS="https://172.23.199.15:2380" # 修改4 当前服务器IP
ETCD_ADVERTISE_CLIENT_URLS="https://172.23.199.15:2379"       # 修改5 当前服务器IP

启动并设置开机启动(同上):

systemctl daemon-reload && systemctl enable etcd && systemctl start etcd && systemctl status etcd

7)查看集群状态
在任意一个ETCD节点上输入如下指令,可以查看集群状态情况true表示健康(保证IP正确)

ETCDCTL_API=3 /opt/etcd/bin/etcdctl 
--cacert=/opt/etcd/ssl/ca.pem 
--cert=/opt/etcd/ssl/server.pem 
--key=/opt/etcd/ssl/server-key.pem 
--endpoints="https://172.23.199.15:2379,https://172.23.199.16:2379,https://172.23.199.17:2379" endpoint health 
--write-out=table

显示结果:

+----------------------------+--------+------------+-------+
|        ENDPOINT            | HEALTH |    TOOK    | ERROR |
+----------------------------+--------+------------+-------+
| https://172.23.199.15:2379 |   true | 6.801153ms |       |
| https://172.23.199.16:2379 |   true |  5.66978ms |       |
| https://172.23.199.17:2379 |   true | 5.644431ms |       |
+----------------------------+--------+------------+-------+

标签:opt,https,ETCD,外置,cfssl,etcd,k8s,172.23
From: https://www.cnblogs.com/shanhubei/p/17372053.html

相关文章

  • kubeadm安装-k8s集群(阿里云服务)【转】-实测安装成功
    部署Kubeadm遇到的哪些问题,并且如何解决地址:http://www.shanhubei.com/archives/2582.htmlk8s集群-CNI网络插件地址:http://www.shanhubei.com/archives/2582.html1、初始化服务器设置(三台都要)环境机器:Linux7.6系统为了方便管理,将服务器的实例名称改成:k8s-master01-15/......
  • k8s kubectl 命令使用及命令补全
      kebuctl命令补全yuminstall-ybash-completionsource/usr/share/bash-completion/bash_completionsource<(kubectlcompletionbash)kubectlcompletionbash>~/.kube/completion.bash.incsource'/root/.kube/completion.bash.inc'source......
  • k8s pod完整生命周期
     [root@master01pod_init]#catpod-all-life-cycles.yamlapiVersion:v1kind:Podmetadata:name:init-pod-1namespace:defaultlabels:app:ini-poddev:prospec:initContainers:-name:init-1image:nginx:1.16.0imagePullPol......
  • k8s Kubernetes Dashboard 安装与使用
    https://github.com/kubernetes/dashboardhttps://developer.aliyun.com/article/745086https://github.com/kubernetes/dashboard/blob/master/docs/user/access-control/creating-sample-user.mdhttps://kubernetes.io/zh-cn/docs/tasks/access-application-cluster/web-ui-......
  • k8s 编写pod yaml 文件 启动pod 查看pod详细信息 查看pod日志 连接pod容器 删除po
    #1创建podyaml文件#使用帮助命令 [root@master01pod]#kubectlexplainpod.spec[root@master01pod]#catpod-self.yamlapiVersion:v1kind:Podmetadata:name:pod-selfnamespace:defaultlabels:app:my-selfdev:prospec:restartPolic......
  • k8s 使用 RBAC 鉴权 建立不同用户使用k8s。只有指定命名空间的权限
    k8s使用RBAC鉴权https://kubernetes.io/zh-cn/docs/reference/access-authn-authz/rbac/#创建sa账号kubectlcreatesasa-test-20230408#使用sa账号创建pod资源[root@master01sa]#catpod.yamlapiVersion:v1kind:Podmetadata:name:sa-test-pod-20230408......
  • k8s 控制器-Replicaset-Deployment cordon drain
    k8s控制器-Replicaset-Deployment#cordon警戒线 执行后不会在调度到该节点上了[root@master01deployment]#kubectlcordonnode01node/node01cordoned[root@master01deployment]# NAMESTATUSROLESAGEVERSIONmaster0......
  • k8s labels 创建和删除
    #1lables#nodelabel[root@master01pod]#kubectllabelpodspod-selftime=2023 [root@master01pod]#kubectlgetnode--show-labels [root@master01pod]#kubectllabelnodesnode01host- #2podlabel [root@master01pod]#kubectllabelnodesno......
  • SpringBoot项目部署在外置Tomcat正常启动,但项目没有被加载的问题
    最近打算部署个SpringBoot项目到外置Tomcat运行,但是发现tomcat启动成功,访问却一直404,刚开始以为是Tomcat的问题,就一直在改Tomcat配置。最后发现tomcat启动时根本就没加载到项目,因为控制台没有打印"SpringBoot"的项目标志经过一番百度查找,最后发现是因为项目启动类没有继承Spring......
  • 案例分享-full gc导致k8s pod重启
     在之前的记一次k8spod频繁重启的优化之旅中分享过对于pod频繁重启的一些案例,最近又遇到一例,继续分享出来希望能给大家带来些许收获。问题现象报警群里突然显示某pod频繁重启,我随即上去查看日志,主要分这么几步:  1.查看pod重启的原因,kubectldescirbepodLastState:......