一.ELK概述
- ELK平台是一套完整的日志集中处理解决方案,将 ElasticSearch、Logstash 和 Kiabana 三个开源工具配合使用, 完成更强大的用户对日志的查询、排序、统计需求。
1.1Elasticsearch
- 基于Lucene(一个全文检索引擎的架构)开发的分布式存储检索引擎,用来存储各类日志。
- 用 Java 开发的,可通过 RESTful Web 接口,让用户可以通过浏览器与 Elasticsearch 通信。
- 是一个实时的、分布式的可扩展的搜索引擎,允许进行全文、结构化搜索,它通常用于索引和搜索大容量的日志数据,也可用于搜索许多不同类型的文档。
1.2Logstash
- Logstash作为数据收集引擎。
- 它支持动态的从各种数据源搜集数据,并对数据进行过滤、分析、丰富、统一格式等操作,然后存储到用户指定的位置,一般会发送给 Elasticsearch。
- 由 Ruby 语言编写,运行在 Java 虚拟机(JVM)上,是一款强大的数据处理工具, 可以实现数据传输、格式处理、格式化输出。
- Logstash 具有强大的插件功能,常用于日志处理。
1.3Kibana
- Kibana 通常与 Elasticsearch 一起部署,Kibana 是 Elasticsearch 的一个功能强大的数据可视化 Dashboar
- Kibana 提供图形化的 web 界面来浏览 Elasticsearch 日志数据,可以用来汇总、分析和搜索重要数据。
1.4Filebeat
- Filebeat 是一款轻量级的开源日志文件数据搜索器。通常在需要采集数据的客户端安装 Filebeat,并指定目录与日志格式
- Filebeat 就能快速收集数据,并发送给 Logstash 进行解析,或是直接发给 ES 存储,性能上相比运行于 JVM 上的 Logstash 优势明显,是对它的替代。
Filebeat 结合 logstash 带来好处:
- 通过 Logstash 具有基于磁盘的自适应缓冲系统,该系统将吸收传入的吞吐量,从而减轻 Elasticsearch 持续写入数据的压力
- 从其他数据源(例如数据库,S3对象存储或消息传递队列)中提取
- 将数据发送到多个目的地,例如S3,HDFS(Hadoop分布式文件系统)或写入文件
- 使用条件数据流逻辑组成更复杂的处理管道
1.5 缓存/消息队列(redis、kafka、RabbitMQ等)
- 可以对高并发日志数据进行流量削峰和缓冲,这样的缓冲可以一定程度的保护数据不丢失,还可以对整个架构进行应用解耦。
1.6 Fluentd
- Fluentd是一个流行的开源数据收集器。由于 logstash 太重量级的缺点,Logstash 性能低、资源消耗比较多等问题,随后就有 Fluentd 的出现。相比较 logstash,Fluentd 更易用、资源消耗更少、性能更高,在数据处理上更高效可靠,受到企业欢迎,成为 logstash 的一种替代方案,常应用于 EFK 架构当中。在 Kubernetes 集群中也常使用 EFK 作为日志数据收集的方案。
- 在 Kubernetes 集群中一般是通过 DaemonSet 来运行 Fluentd,以便它在每个 Kubernetes 工作节点上都可以运行一个 Pod。 它通过获取容器日志文件、过滤和转换日志数据,然后将数据传递到 Elasticsearch 集群,在该集群中对其进行索引和存储。
1.7ELK的用处
- 日志主要包括系统日志,应用程序日志和安全日志。系统运维和开发人员可以通过日志了解服务器软硬件信息、检查配置过程中的错误及。错误发生的原因。经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误
- 往往单台机器的日志我们使用grep、awk等工具就能基本实现简单析,但是当日志被分散的储存不同的设备上。如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志。这样感觉很繁琐和效率低下
- 当务之急我们使用集中化的日志管理,例如∶开源的syslog,将所有服务器上的日志收集汇总。集中化管理日志后,日志的统计和检索又成为一件比较麻烦的事情,一般我们使用grep、awk和wc等Linux命令能实现检索和统计,但是对于要求更高的查询、排序和统计等要求和庞大的机器数量依然使用这样的方法难免有点力不从心
- 一般大型系统是一个分布式部署的架构,不同的服务模块部署在不同的服务器上,问题出现时,大部分情况需要根据问题暴露的关键信息,定位到具体的服务器和服务模块,构建一套集中式日志系统,可以提高定位问题的效率
二.ELK工作原理
①AppServer 是一个类似于 Nginx、Apache 的集群,其日志信息由 Logstash 来收集
②往往为了减少网络问题所带来的瓶颈,会把 Logstash 服务放入前者的集群内,减少网络的消耗
③Logstash 把收集到的日志数据格式化后输出转存至 ES 数据库内(这是一个将日志进行集中化管理的过程)
④Kibana 对 ES 数据库内格式化后日志数据信息进行索引和存储
⑤Kibana 把其展示给客户端
总结:logstash作为日志搜集器,从数据源采集数据,并对数据进行过滤,格式化处理,然后交由Elasticsearch存储,kibana对日志进行可视化处理。
三.Elasticsearch介绍
- ElasticSearch是基于Lucene(全文检索引擎的架构)开发的分布式存储检索引擎,用来存储各类的日志
- ElasticSearch是java开发的,它可以通过RESTful Web接口让用户通过浏览器与其通讯
- Elasticsearch是一个实时的、分布式的可扩展的搜索引擎,允许进行全文、结构化搜索,它通常用于索引和搜索大容量的日志数据,也可用于搜索许多不同类型的文档。
3.1Elasticsearch的核心
①接近实时(NRT)
- Elasticsearch是一个接近实时的搜索平台,这意味着,从索引一个文档直到这个文档能够被搜索到有一个轻微的延迟(通常是1秒)
②集群(cluster)
- 一个集群就是由一个或者多个节点组织在一起,它们共同持有你整个的数据,并一起提供索引和搜索功能。其中一个为主节点,这个主节点是可以通过选举产生的,并提供跨节点的联合索引和搜索功能。
- 集群有一个唯一性标示的名字,默认是Elasticsearch,集群的名字很重要,每个节点是基于集群名字加入到集群中的。因此,确保在不同的环境中使用不同的集群名字。
- 一个集群可以只有一个节点,建议在配置Elasticsearch时,配置成集群模式。
- Elasticsearch具有集群机制,节点通过集群名称加入到集群中,同时在集群中的节点会有一个自己唯一的身份标识(自己的名称)
③节点(node)
- 节点就是一台单一的服务器,是集群的一部分,存储数据并参与集群的索引和搜索功能。像集群一样,节点也是通过名字来标识,默认是在节点启动时随机分配的字符名。也可自己定义,名字很重要,在集群中用于识别服务器对应的节点
- 节点可以通过指定集群名字来加入到集群中。默认情况下,每个节点被设置成加入到Elasticsearch集群。如果启动了多个节点,假设能自动发现对方,他们将会自动组建一个名为Elasticsearch的集群。
④索引(index)
- 一个索引就是一个拥有几分相似特征的文档的集合。
- 一个索引由一个名字来标识(必须全部是小写字母),并且当我们要对对应于这个索引中的文档进行索引、搜索、更新和删除的时候。都要使用到这个名字。在一个集群中,可以定义任意多的索引。
⑤类型(type)
- 在一个索引中,你可以定义一种或多种类型。一个类型是你的索引的一个逻辑上的分类/分区,其语义完全由你来定。
- 通常会为具有一组共同字段的文档定义一个类型。
⑥文档(document)
- 一个文档是一个可被索引的基础信息单元
- 在一个index/type里面,只要你想,你可以存储任意多的文档。注意,虽然一个文档在物理上位于一个索引中,实际上一个文档必须在一个索引内被索引和分配一个类型
⑦分片和副本(shards & replicas)也是es作为搜索引擎比较快的原因
- 实际情况下,索引存储的数据可能超过单个节点的硬件限制。为了解决这个问题,Elasticsearch提供将索引分成多个分片的功能。
- 当在创建索引时,可以定义想要的分片数量。每一个分片就是一个全功能的独立的索引,可以位于集群中任何节点上。
分片的主要原因:
- 水平分割扩展,增大存储量
- 分布式并跨越分片操作,提高性能和吞吐量
- 分布式分片机制和搜索请求的文档如何火鬃完全是由Elasticsearch控制的,这些对用户是完全透明的。
- 为了健壮性,建议有一个故障切换机制,为此,Elasticsearch让我们将索引分片复制一份或多份,称之为分片副本
分片副本的原因:
- 高可用性,以应对分片或者节点故障。处于这个原因,分片副本要在不同的节点上
- 增大吞吐量,搜索可以并行在所有副本上执行
- 总之,每个索引可以被分成多个分片。一个索引可以被复制0次或者多次。一旦复制了,每个索引就有了主分片 (作为复制源的原来的分片)和复制分片(主分片的拷贝)之别。分片和副本的数量可以在索引创建的时候指定。在索引创建之后,你可以在指定任何时候动态的改变副本的数量,但是你事后不能改变分片的数量
默认情况下,Elasticsearch中的每个索引被分片5个主分片和1个副本,这意味着,如果你的集群中至少有两个节点,你的索引将会有5个主分片和另外的5个副本分片(一个完全拷贝),这样的话每个索引总共有10个分片。
四.Logstash介绍
- Logstash 是一个具有实时传输能力的数据收集引擎,其可以通过插件实现日志收集和转发,支持日志过滤,支持普通 log、自定义 json 格式的日志解析,最终把经过处理的日志发送给 elasticsearch
五.kibana介绍
- Kibana 为 elasticsearch 提供一个查看数据的 web 界面,其主要是通过elasticsearch 的 API 接口进行数据查找,并进行前端数据可视化的展现,另外还可以针对特定格式的数据生成相应的表格、柱状图、饼图等。
六.ELK系统部署
2.1ELK部署(Elasticsearch+Logstash+Kibana)
2.1.1部署环境
节点服务器 | ip地址 | 部署 |
node1节点(2C/4G) | 192.168.61.100 | ES、Kibana |
node2节点(2C/4G) | 192.168.61.101 | ES |
apache节点 | 192.168.61.102 | Logstash、Apache |
2.1.2关闭防火墙,同步时区
#关闭防火墙与增强功能 systemctl disable --now firewalld setenforce 0 #服务端和客户端都配置时间同步 yum install -y ntpdate ntpdate -u ntp.aliyun.com #客户端配置时区,与服务器保持一致 mv /etc/localtime{,.bak} ln -s /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
2.1.3ElasticSearch集群部署(node1,node2)
[root@localhost ~]# hostnamectl set-hostname node1 [root@localhost ~]# bash [root@node1 ~]# echo "192.168.61.100 node1" >> /etc/hosts [root@node1 ~]# echo "192.168.61.101 node2" >> /etc/hosts [root@node1 ~]# java -version #不建议使用 openjdk # rpm 安装 jdk (方法一) #将软件包传至该目录下 cd /opt rpm -ivh jdk-8u201-linux-x64.rpm vim /etc/profile.d/java.sh export JAVA_HOME=/usr/java/jdk1.8.0_201-amd64 //输出定义java的工作目录 export CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar //输出指定java所需的类文件 export PATH=$JAVA_HOME/bin:$PATH //输出重新定义环境变量,$PATH一定要放在$JAVA_HOME的后面,让系统先读取到工作目录中的版本信息 source /etc/profile.d/java.sh java -version # rpm 安装 jdk (方法二) cd /opt tar zxvf jdk-8u91-linux-x64.tar.gz -C /usr/local mv /usr/local/jdk1.8.0_91/ /usr/local/jdk #设置环境变量 vim /etc/profile export JAVA_HOME=/usr/local/jdk export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH source /etc/profile java -version
#上传elasticsearch-5.5.0.rpm到/opt目录下 [root@node1 ~]# cd /opt [root@node1 opt]# rpm -ivh elasticsearch-5.5.0.rpm
#加载系统服务
systemctl daemon-reload && systemctl enable elasticsearch.service
#修改es的主配置文件 [root@node1 opt]# cp /etc/elasticsearch/elasticsearch.yml /etc/elasticsearch/elasticsearch.yml.bak #备份配置文件 [root@node1 opt]# vim /etc/elasticsearch/elasticsearch.yml ##17行,取消注释,指定群集名称 cluster.name: my-elk-cluster ##23行,取消注释,指定节点名称(node1节点为node1,node2节点为node2) node.name: node1 ##33行,取消注释,指定数据存放路径 path.data: /data/elk_data ##37行,取消注释,指定日志存放路径 path.logs: /var/log/elasticsearch/ ##43行,取消注释,不在启动的时候锁定内存(前端缓存,与IOPS-性能测试方式,每秒读写次数相关) bootstrap.memory_lock: false ##55行,取消注释,设置监听地址,0.0.0.0代表所有地址 network.host: 0.0.0.0 ##59行,取消注释,ES服务的默认监听端口为9200 http.port: 9200 ##68行,取消注释,集群发现通过单播实现,指定要发现的节点node1、node2 discovery.zen.ping.unicast.hosts: ["node1", "node2"] [root@node1 opt]# grep -v "^#" /etc/elasticsearch/elasticsearch.yml cluster.name: my-elk-cluster node.name: node1 path.data: /data/elk_data path.logs: /var/log/elasticsearch/ bootstrap.memory_lock: false network.host: 0.0.0.0 http.port: 9200 discovery.zen.ping.unicast.hosts: ["node1", "node2"] ###################################################### #将配置好的文件用 scp 传至 node2,后续只用去改个节点名字即可 scp /etc/elasticsearch/elasticsearch.yml [email protected]:/etc/elasticsearch/elasticsearch.yml
#创建数据存放路径并授权 [root@node1 opt]# mkdir -p /data/elk_data [root@node1 opt]# chown elasticsearch:elasticsearch /data/elk_data/
#启动elasticsearch [root@node1 opt]# systemctl start elasticsearch.service [root@node1 opt]# netstat -natp | grep 9200 #启动较慢,需等待 tcp6 0 0 :::9200 :::* LISTEN 4216/java 注:必须在解压后的 elasticsearch-head 目录下启动服务,进程会读取该目录下的 gruntfile.js 文件,否则可能启动失败。
#查看节点信息 浏览器访问192.168.61.100:9200 192.168.61.101:9200 //查看节点的信息 浏览器访问192.168.61.100:9200/_cluster/health?pretty //去查看节点的健康状态 看到status为green表示状态正常
2.1.4安装Elasticsearch-head插件 (es的可视化)
- Elasticsearch在5.0 版本后,Elasticsearch-head插件需要作为独立服务进行安装,需要使用npm.工具(Wodeas的包管理T具)安装。
- 安装 Elasticsearch-head 需要提前安装好依赖软件node 和 phantomjs。
①node:是一个基于 Chrome v8引擎的 JavaScript运行环境。
②phantomjs:是一个基于websit 的JavaScriptAPI,可以理解为一个隐形的浏览器,任何基于webkit浏览器做的事情,它都可以做到。
#编译安装node #上传软件包node-v8.2.1.tar.gz到/opt目录 [root@node1 ~]# cd /opt [root@node1 opt]# yum install -y gcc gcc-c++ make [root@node1 opt]# tar zxvf node-v8.2.1.tar.gz [root@node1 opt]# cd node-v8.2.1/ [root@node1 node-v8.2.1]# ./configure [root@node1 node-v8.2.1]# make -j 4 && make install #编译时间很长
#安装phantomis #上传软件包phantomjs-2.1.1-linux-x86_64.tar.bz2到/opt目录 [root@node1 node-v8.2.1]# cd /opt [root@node1 opt]# tar jxvf phantomjs-2.1.1-linux-x86_64.tar.bz2 -C /usr/local/src [root@node1 opt]# cd /usr/local/src/phantomjs-2.1.1-linux-x86_64/bin [root@node1 bin]# cp phantomjs /usr/local/bin
#安装elasticsearch-head数据可视化工具 #上传软件包elasticsearch-head.tar.gz到/opt目录 [root@node1 bin]# cd /opt [root@node1 opt]# tar zxvf elasticsearch-head.tar.gz -C /usr/local/src/ [root@node1 opt]# cd /usr/local/src/elasticsearch-head/ [root@node1 elasticsearch-head]# npm install
#修改es的主配置文件 [root@node1 elasticsearch-head]# vim /etc/elasticsearch/elasticsearch.yml ##末行添加以下内容 http.cors.enabled: true ##开启跨域访问支持,默认为false http.cors.allow-origin: "*" ##指定跨域访问允许的域名地址为所有 [root@node1 elasticsearch-head]# systemctl restart elasticsearch.service [root@node1 elasticsearch-head]# netstat -antp | grep 9200
#启动elasticsearch-head服务 [root@node1 elasticsearch-head]# cd /usr/local/src/elasticsearch-head/ [root@node1 elasticsearch-head]# npm run start & [1] 71012 > [email protected] start /usr/local/src/elasticsearch-head > grunt server Running "connect:server" (connect) task Waiting forever... Started connect web server on http://localhost:9100 ^C [root@node1 elasticsearch-head]# netstat -natp | grep 9100 tcp 0 0 0.0.0.0:9100 0.0.0.0:* LISTEN 71022/grunt
#通过elastic search-head查看es的信息 通过浏览器访问 http://192.168.61.100:9100 地址并连接群集。如果看到群集健康值为 green,代表群集很健康。 注意:有的时候显示未连接,这时将 localhost 改成 IP 地址即可
2.1.5logstach部署(apache节点)
#准备好Java环境 #安装logstash #上传安装包 logstash-5.5.1.rpm [root@apache ~]# cd /opt [root@apache opt]# rpm -ivh logstash-5.5.1.rpm [root@apache opt]# systemctl start logstash.service && systemctl enable logstash.service [root@apache opt]# ln -s /usr/share/logstash/bin/logstash /usr/local/bin/
①测试logstash
Logstash 命令常用选项:
-f 通过这个选项可以指定 Logstash 的配置文件,根据配置文件配置 Logstash 的输入和输出流
-e 从命令行中获取,输入、输出后面跟着字符串,该字符串可以被当做 Logstash 的配置(如果是空,则默认使用 stdin 作为输入,stdout 作为输出)
-t 测试配置文件是否正确,然后退出
#定义输入和输出流,测试logstash与es功能是否正常 #输入采用标准输入,输出采用标准输出(类似管道) #在Apache服务器上 logstash -e 'input { stdin{} } output { stdout{} }' ...... www.baidu.com #键入内容(标准输入) 2020-12-22T03:58:47.799Z node1 www.baidu.com #输出结果(标准输出) www.sina.com.cn #键入内容(标准输入) 2017-12-22T03:59:02.908Z node1 www.sina.com.cn #输出结果(标准输出) #执行 ctrl+c 退出
#使用 rubydebug 输出详细格式显示,codec 为一种编解码器 logstash -e 'input { stdin{} } output { stdout{ codec=>rubydebug } }' ...... www.baidu.com #键入内容(标准输入) { "@timestamp" => 2020-12-22T02:15:39.136Z, #输出结果(处理后的结果) "@version" => "1", "host" => "apache", "message" => "www.baidu.com" } #使用 Logstash 将信息写入 Elasticsearch 中 logstash -e 'input { stdin{} } output { elasticsearch { hosts=>["192.168.61.100:9200"] } }' 输入 输出 对接 ...... www.baidu.com #键入内容(标准输入) www.sina.com.cn #键入内容(标准输入) www.google.com #键入内容(标准输入) //结果不在标准输出显示,而是发送至 Elasticsearch 中,可浏览器访问 http://192.168.61.100:9100/ 查看索引信息和数据浏览。
#定义logstash配置文件 input { file { path =>"/var/log/messages" type =>"syslog"} file { path =>"/var/log/httpd/access.log" type =>"apache"} }
#修改 logstash 配置文件,让其收集系统日志 /var/log/messages,并将其输出到 ES 中 [root@apache opt]# chmod o+r /var/log/messages
#赋予读的权限,让 Logstash 可以获取到该文件的内容 [root@apache opt]# vim /etc/logstash/conf.d/system.conf ##该文件需自行创建,文件名可自定义 input { file{ path =>"/var/log/messages" ##指定要收集的日志的位置 type =>"system" ##自定义日志类型标识 start_position =>"beginning" ##表示从开始处收集 } } output { elasticsearch{ ##输出到ES hosts =>["192.168.61.100:9200", "192.168.61.101:9200"] ##指定ES服务器的地址和端口,为避免单机故障,建议写全 index =>"system-%{+YYYY.MM.dd}" ##指定输出到ES的索引格式 } } [root@apache opt]# systemctl restart logstash.service
#在web访问es可以看到我们创建的新的索引 http://192.168.61.100:9100
2.1.6Kibana部署(node1)
#上传软件包 kibana-5.5.1-x86_64.rpm [root@node1 elasticsearch-head]# cd /opt [root@node1 opt]# rpm -ivh kibana-5.5.1-x86_64.rpm
#设置Kibana的主配置文件 #备份配置文件 [root@node1 opt]# cp /etc/kibana/kibana.yml /etc/kibana/kibana.yml.bak [root@node1 opt]# vim /etc/kibana/kibana.yml ##2行,取消注释,kibana服务的默认监听端口为5601 server.port: 5601 ##7行,取消注释,设置kibana的监听地址,0.0.0.0代表所有地址 server.host: "0.0.0.0" ##21行,取消注释,设置和ES建立连接的地址和端口 elasticsearch.url: "http://192.168.61.100:9200" ##30行,取消注释,设置在ES中添加.kibana索引 kibana.index: ".kibana"
[root@node1 opt]# systemctl start kibana.service && systemctl enable kibana.service [root@node1 opt]# netstat -natp | grep 5601 tcp 0 0 0.0.0.0:5601 0.0.0.0:* LISTEN 82765/node
#验证Kibana 浏览器访问192.168.61.100:5601 第一次登录需要添加一个 ES 索引 点击 create 创建 索引添加完成后,点击 Discover 按钮可查看图表信息及日志信息 数据展示可以分类显示,例如:在 Available Fileds 中的 host
2.1.7将apache服务器的日志添加到es通过kibana显示出来
#将 Apache 服务器的日志(访问的、错误的)添加到 Elasticsearch 并通过 Kibana 显示 vim /etc/logstash/conf.d/apache_log.conf input { file{ path => "/etc/httpd/logs/access_log" type => "access" start_position => "beginning" } file{ path => "/etc/httpd/logs/error_log" type => "error" start_position => "beginning" } } output { if [type] == "access" { elasticsearch { hosts => ["192.168.61.100:9200"] index => "apache_access-%{+YYYY.MM.dd}" } } if [type] == "error" { elasticsearch { hosts => ["192.168.61.101:9200"] index => "apache_error-%{+YYYY.MM.dd}" } } } cd /etc/logstash/conf.d/ /usr/share/logstash/bin/logstash -f apache_log.conf 浏览器访问 http://192.168.61.100:9100 查看索引是否创建 浏览器访问 http://192.168.61.100:5601 登录 Kibana,单击“Create Index Pattern”按钮添加索引, 在索引名中输入之前配置的 Output 前缀 apache_access-*,并单击“Create”按钮。在用相同的方法添加 apache_error-*索引。 选择“Discover”选项卡,在中间下拉列表中选择刚添加的 apache_access-* 、apache_error-* 索引, 可以查看相应的图表及日志信息。
2.2ELFK部署(ELK+filebeat)
Node1节点(2C/4G):node1/192.168.61.100 Elasticsearch Kibana Node2节点(2C/4G):node2/192.168.61.101 Elasticsearch Apache节点:apache/192.168.61.102 Logstash Apache Filebeat节点:filebeat/192.168.61.103 Filebeat //在 Node1 节点上操作 1.安装 Filebeat #上传软件包 filebeat-6.2.4-linux-x86_64.tar.gz 到/opt目录 tar zxvf filebeat-6.2.4-linux-x86_64.tar.gz mv filebeat-6.2.4-linux-x86_64/ /usr/local/filebeat 2.设置 filebeat 的主配置文件 cd /usr/local/filebeat vim filebeat.yml filebeat.prospectors: - type: log #指定 log 类型,从日志文件中读取消息 enabled: true paths: - /var/log/messages #指定监控的日志文件 - /var/log/*.log fields: #可以使用 fields 配置选项设置一些参数字段添加到 output 中 service_name: filebeat log_type: log service_id: 192.168.58.98 --------------Elasticsearch output------------------- (全部注释掉) ----------------Logstash output--------------------- output.logstash: hosts: ["192.168.61.102:5044"] #指定 logstash 的 IP 和端口 #启动 filebeat ./filebeat -e -c filebeat.yml 4.在 Logstash 组件所在节点上新建一个 Logstash 配置文件 cd /etc/logstash/conf.d vim logstash.conf input { beats { port => "5044" } } output { elasticsearch { hosts => ["192.168.61.100:9200"] index => "%{[fields][service_name]}-%{+YYYY.MM.dd}" } stdout { codec => rubydebug } } #启动 logstash logstash -f logstash.conf 5.浏览器访问 http://192.168.61.100:5601 登录 Kibana,单击“Create Index Pattern”按钮添加索引“filebeat-*”,单击 “create” 按钮创建,单击 “Discover” 按钮可查看图表信息及日志信息。
标签:opt,ELK,系统,索引,elasticsearch,node1,日志,root From: https://www.cnblogs.com/suoluo212/p/16963041.html