首页 > 其他分享 >elasticsearch由单节点部署成3节点的集群

elasticsearch由单节点部署成3节点的集群

时间:2023-08-08 16:44:32浏览次数:36  
标签:kb 由单 elastic 192.168 elasticsearch security 节点

环境:
OS:Centos 7
ES:6.8.5
目前拓扑:单节点的ES(带密码验证)
当前节点ip:
192.168.1.105

新增节点ip:
192.168.1.106
192.168.1.107

 

########################当前节点的配置情况##########################

1.配置参数文件
[elasticsearch@hadoop-slave1 config]$ more elasticsearch.yml

path.data: /home/middle/elasticsearch/data
path.logs: /home/middle/elasticsearch/logs
network.host: 192.168.1.63
http.port: 19200
path.repo: /home/elasticsearch/esbak

##安全认证
xpack.security.enabled: true
xpack.security.transport.ssl.enabled: true

##第三方中间件配置参数,看情况需要
http.cors.enabled: true
http.cors.allow-origin: "*"
http.cors.allow-headers: Authorization,X-Requested-With,Content-Length,Content-Type

 

2.数据情况

[elasticsearch@localhost config]$ curl -u elastic:elastic -X GET 'http://192.168.1.105:19200/_cat/indices?v'         health status index           uuid                   pri rep docs.count docs.deleted store.size pri.store.size
yellow open   app_message_all E3S-HXeZTX6BuTbRlw31Pw   5   1     300000            0    222.4mb        222.4mb
yellow open   db_customer     n3-RkwCxTK6-qjORZIs0Dg   5   1          1            0      4.5kb          4.5kb
green  open   .security-6     Y_fF1tkBRKa2mAo2H78ozg   1   0          6            0     19.5kb         19.5kb

 

################当前节点上的操作#################################

在192.168.1.105上操作
1.生成ca证书(tsl方式)
参考如下连接操作
https://www.cnblogs.com/hxlasky/p/14784423.html

 

2.修改当前节点的配置
vi /usr/local/services/elasticsearch/config/elasticsearch.yml

##集群名称和节点名称
cluster.name: my-cluster
node.name: node-1

##安全认证部分
xpack.security.enabled: true
xpack.security.transport.ssl.enabled: true
xpack.security.transport.ssl.verification_mode: certificate
xpack.security.transport.ssl.keystore.path: elastic-certificates.p12
xpack.security.transport.ssl.truststore.path: elastic-certificates.p12

##集群部分
discovery.zen.ping.unicast.hosts: ["192.168.1.105", "192.168.1.106","192.168.1.107"]
discovery.zen.minimum_master_nodes: 2

 

注意:
这个时候先不重启该节点,等另外2个节点都配置好了启动后再重启动

 

################新增节点1(192.168.1.106)上的操作#################################

1.节点上安装es
安装路径与现有节点保持一致

 

2.这里新加入基本参数,确保es能够启动
##集群名称和节点名称(注意每个节点的node.name参数不一致,其他都是一样的)

cluster.name: my-cluster
node.name: node-2
path.data: /home/middle/elasticsearch/data
path.logs: /home/middle/elasticsearch/logs
network.host: 192.168.1.106
http.port: 19200
path.repo: /home/elasticsearch/esbak

 

3.确保通过上面的基本配置能够启动es

-bash-4.2$ curl http://192.168.1.106:19200/?pretty
{
  "name" : "DnTDbU_",
  "cluster_name" : "elasticsearch",
  "cluster_uuid" : "fzzwm0OdRLGpLZYvBY2noA",
  "version" : {
    "number" : "6.8.5",
    "build_flavor" : "default",
    "build_type" : "tar",
    "build_hash" : "78990e9",
    "build_date" : "2019-11-13T20:04:24.100411Z",
    "build_snapshot" : false,
    "lucene_version" : "7.7.2",
    "minimum_wire_compatibility_version" : "5.6.0",
    "minimum_index_compatibility_version" : "5.0.0"
  },
  "tagline" : "You Know, for Search"
}

 

4.关闭es
-bash-4.2$ kill -9 2109

 

5.将上面节点生成的证书拷贝到相应的目录

192.168.1.105 上操作
[root@localhost config]# cd /usr/local/services/elasticsearch/config
scp elastic-stack-ca.p12 [email protected]:/usr/local/services/elasticsearch/config/
scp elastic-certificates.p12 [email protected]:/usr/local/services/elasticsearch/config/

 

另外一台机器

scp elastic-stack-ca.p12 [email protected]:/usr/local/services/elasticsearch/config/
scp elastic-certificates.p12 [email protected]:/usr/local/services/elasticsearch/config/


拷贝过去后注意要修改权限
[root@localhost home]# cd /usr/local/services
[root@localhost services]# chown -R elasticsearch:elasticsearch ./elasticsearch

 

6.修改配置文件,加入如下项:
su - elasticsearch
vi /usr/local/services/elasticsearch/config/elasticsearch.yml

xpack.security.enabled: true
xpack.security.transport.ssl.enabled: true
xpack.security.transport.ssl.verification_mode: certificate
xpack.security.transport.ssl.keystore.path: elastic-certificates.p12
xpack.security.transport.ssl.truststore.path: elastic-certificates.p12
discovery.zen.ping.unicast.hosts: ["192.168.1.105", "192.168.1.106","192.168.1.107"]
discovery.zen.minimum_master_nodes: 2

 

################新增节点1(192.168.1.107)上的操作#################################
该节点上的操作与上面的节点操作一致

 

################启动集群#################################

1.停掉原有节点的ES
[root@localhost config]# kill -9 1979

 

2.启动三个节点
每个节点都执行如下操作
[root@localhost config]# su - elasticsearch
[elasticsearch@localhost bin]$ cd /usr/local/services/elasticsearch/bin
[elasticsearch@localhost bin]$ ./elasticsearch -d

 

3.集群验证

[elasticsearch@localhost bin]$ curl -u elastic:elastic 'http://192.168.1.105:19200/_cat/nodes?pretty'
192.168.1.106 3 95 68 1.87 0.63 0.26 mdi - node-2
192.168.1.107 3 93 84 1.66 0.53 0.26 mdi - node-3
192.168.1.105 3 97 39 1.16 0.47 0.21 mdi * node-1

[elasticsearch@localhost bin]$ curl -u elastic:elastic 'http://192.168.1.105:19200/_cat/health?v'
epoch      timestamp cluster    status node.total node.data shards pri relo init unassign pending_tasks max_task_wait_time active_shards_percent
1691482056 08:07:36  my-cluster green           3         3     32  16    0    0        0             0                  -                100.0%

 

4.验证数据情况

节点1:
[elasticsearch@localhost bin]$ curl -u elastic:elastic -X GET 'http://192.168.1.105:19200/_cat/indices?v'
health status index           uuid                   pri rep docs.count docs.deleted store.size pri.store.size
green  open   .security-6     U8MPlehwRFWYSQY2cgh8mw   1   1          6            0     39.1kb         19.5kb
green  open   db_customer     n3-RkwCxTK6-qjORZIs0Dg   5   1          1            0        9kb          4.5kb
green  open   app_message_all E3S-HXeZTX6BuTbRlw31Pw   5   1     300000            0    444.9mb        222.4mb
green  open   db_customer01   MZ54EHsBQY-teVmJTKf1kA   5   1          1            0        9kb          4.5kb


节点2:
[elasticsearch@localhost bin]$ curl -u elastic:elastic -X GET 'http://192.168.1.106:19200/_cat/indices?v'
health status index           uuid                   pri rep docs.count docs.deleted store.size pri.store.size
green  open   .security-6     U8MPlehwRFWYSQY2cgh8mw   1   1          6            0     39.1kb         19.5kb
green  open   db_customer     n3-RkwCxTK6-qjORZIs0Dg   5   1          1            0        9kb          4.5kb
green  open   app_message_all E3S-HXeZTX6BuTbRlw31Pw   5   1     300000            0    444.9mb        222.4mb
green  open   db_customer01   MZ54EHsBQY-teVmJTKf1kA   5   1          1            0        9kb          4.5kb

节点3:
[elasticsearch@localhost bin]$ curl -u elastic:elastic -X GET 'http://192.168.1.107:19200/_cat/indices?v'
health status index           uuid                   pri rep docs.count docs.deleted store.size pri.store.size
green  open   .security-6     U8MPlehwRFWYSQY2cgh8mw   1   1          6            0     39.1kb         19.5kb
green  open   db_customer     n3-RkwCxTK6-qjORZIs0Dg   5   1          1            0        9kb          4.5kb
green  open   app_message_all E3S-HXeZTX6BuTbRlw31Pw   5   1     300000            0    444.9mb        222.4mb
green  open   db_customer01   MZ54EHsBQY-teVmJTKf1kA   5   1          1            0        9kb          4.5kb

 

可以看到之前单节点的数据都自动同步到其他另外的2个节点了.

 

说明:
集群模式的备份目录必须是每个节点都能访问的公共目录,实现的方式有:
1.通过将一个节点的的备份目录通过nfs挂载到另外的2台机器;
2.若是采用云服务的话,可以购买一个nas服务,分别挂载到每个节点;

 

标签:kb,由单,elastic,192.168,elasticsearch,security,节点
From: https://www.cnblogs.com/hxlasky/p/17614762.html

相关文章

  • el-tree 父子节点勾选框:勾选时关联但回显时不关联
    需求之前的需求是el-tree父子节点勾选框半关联,但是现在需求改了,需要:勾选时父子节点关联;数据回显时,父子节点不关联。即:分析传参控制父子节点是否关联check-strictly父子节点是否关联是由check-strictly这个属性决定的:为false表示关联,为true表示不关联。回显......
  • ceph新增节点
    我们在上一篇文章中已经学习了手动安装ceph和ceph的挂载使用手动安装ceph和使用本章记录我们在日常运维中经常遇到的场景,就是如何给这个集群扩容–增加节点。假如我们新采购了一台服务器想融入到ceph集群中,步骤如下:调整网络情况ip地址需要与ceph集群在同一内网内使用命令如下:ifcon......
  • 遇到问题--hadoop---节点服务重启成功一段时间后又停止
    情况我们发现CDH中一个hbase的regionServer节点经常自动停止,没有明显的错误信息。重启后又过一小段时间又自动停止原因这种情况一般都是需要排查相关服务的日志的,比如我们是regionServer节点的服务,则需要先看regionServer节点的日志。很幸运的是原因很快就找到了。一进入日志界面......
  • 何时使用Elasticsearch而不是MySql
    MySQL和Elasticsearch是两种不同的数据管理系统,它们各有优劣,适用于不同的场景。本文将从以下几个方面对它们进行比较和分析:数据模型查询语言索引和搜索分布式和高可用性能和扩展性使用场景数据模型MySQL是一个关系型数据库管理系统(RDBMS),它使用表(table)来存储结构化的......
  • 《面试1v1》ElasticSearch倒排索引
    ElasticSearch倒排索引:让搜索变得简单有趣!我是javapub,一名Markdown程序员从......
  • 《面试1v1》ElasticSearch和lucene
    面试官:嗨,欢迎来到我们的面试!今天我们将聊一下ElasticSearch和Lucene。你对这两个技术有了解吗?候选人:当然!ElasticSearch是一个基于Lucene构建的分布式搜索和分析引擎。它提供了强大的全文搜索功能和实时数据分析能力。面试官:很好!那你能给我解释一下Lucene是什么吗?候选人:当然!Luce......
  • 《面试1v1》ElasticSearch基础
    面试官:嗨,欢迎来到我们的面试!今天我们要聊一聊ElasticSearch基础知识。你对ElasticSearch有了解吗?候选人:当然!ElasticSearch是一个开源的分布式搜索和分析引擎,它可以帮助我们快速地存储、搜索和分析海量数据。简单来说,就是个大数据的搜索神器!面试官:哈哈,没错!那你能给我解释一下Elas......
  • docker-compose快速部署elasticsearch-8.8.1集群+kibana+logstash
    安装环境centos7.98cpu16G内存vda50Gvdb100G如果您的环境是Linux,注意要做以下操作,否则es可能会启动失败用编辑工具打开文件/etc/sysctl.conf在尾部添加一行配置vm.max_map_count=262144,如果已存在就修改,数值不能低于262144修改保存,然后执行命令sudosysctl-p使其立即......
  • Jenkins 增加子节点
    以Windows为例主节点配置首先进入security界面在agent中做如下配置添加子节点进入节点管理页面添加子节点然后填写相关信息此时子节点已创建完成子节点配置第一步,首先安装Javajdk-11,前往oracle官网下载jdk11https://www.oracle.com/java/technologies/do......
  • k8s 部分节点 nodelocaldns [ERROR] Failed to read node-cache coreFile /etc/coredn
      部分K8S节点nodelocaldnsCrashLoopBackOff状态报错,报错信息如下:#kubectllogsnodelocaldns-w9mgz-nkube-system2023/08/0703:18:33[INFO]UsingCorefile/etc/coredns/Corefile2023/08/0703:18:33[ERROR]Failedtoreadnode-cachecoreFile/etc/coredns/Co......