首页 > 其他分享 >搭建ELK-Filebeat采集系统日志

搭建ELK-Filebeat采集系统日志

时间:2024-08-27 10:21:51浏览次数:12  
标签:ELK Filebeat elk 分区 filebeat Kafka 设置 data 系统日志

1、解压到/data/elk/filebeat

mkdir -p /data/elk/filebeat
tar -zxf filebeat-7.17.7-linux-x86_64.tar.gz -C /data/elk/filebeat --strip-components=1 #--strip-components选项表示从目录级别上去除指定的前缀,以实现更加控制解压的效果

2、修改配置文件

vi /data/elk/filebeat/filebeat.yml
# ============================== Filebeat inputs ===============================
filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /data/nginx/*.log

  ### 添加字段
  # 添加一些字段以识别项目和主机环境
  fields:
    hostenv: "production"  # 主机环境
    project: "nginx"  # 所属项目

  ### 多行选项
  # 多行选项,期望输出连续的多行日志,比如Java日志。
  multiline.type: pattern
  multiline.pattern: '^[0-9]{4}-[0-9]{2}-[0-9]{2}'
  # 使用正则表达匹配行。
  multiline.negate: true
  # 定义行是否被否定,若被否定,则执行"multiline.match"。
  multiline.match: after
  # 设置将匹配行与上一行(before)合并为一个事件输出,还是将匹配行与下一行(after)合并为一个事件输出。

# ================================== Outputs ===================================
# ...
# ------------------------------ Kafka Output -------------------------------
output.kafka:
  hosts: ["192.168.0.193:9092"]
  # 指定Kafka服务器连接地址,我这边由于网络环境问题,所以使用Kafka服务器的公网主机IP地址。
 
  username: "admin"
  # 设置连接Kafka所使用的的用户名
  password: "admin888"
  # 设置连接Kafka所使用的的用户密码

  topic: '%{[fields.hostenv]}-%{[fields.project]}'
  # 设置主题名称
  partition.round_robin:
    group_events: 1
    reachable_only: false
  # 设置消息写入主题的分区策略:默认使用hash方法。
  # random.group_events, 随机写入主题的任意一个分区,并设置写入分区时消息事件的数量,默认为1。
  # round_robin.group_events,有序的轮询的写入主题分区,并设置写入分区时消息时间的数量,默认为1。
  # hash.hash,通过哈希计算分区中的字段列表,将匹配的字段写入到同一个分区中,如果没有配置字段,则使用事件键值。
  # - hash.random,如果无法计算哈希或键值,则随机分发事件。
  # reachable_only: 默认分区都尝试向所有分区发布事件,如果一个分区的leader在这个beat下变得不可用,输出可能会阻塞,则开启该项表示允许将事件发送到可用分区。
  required_acks: 1
  # 设置Kafka代理要求的ACK可靠性级别:
  # 0,无响应。
  # 1,等待本地提交。
  # -1,等待所有副本提交。
  # 注:如果设置为0,则Kafka不会返回任何ACK。出现错误时,消息可能会自动丢失。
  compression: gzip
  # 设置输出压缩编解码器,默认为gzip。支持none、snappy、lz4和zip压缩方式。
  compression_level: 4
  # 设置压缩级别,默认为4。如果设置为0,则表示不压缩。
  max_message_bytes: 10000000
  # JSON编码消息最大允许大小。更大的信息将被删除。默认是1M。该值应该小于或等于Kafka代理服务器
  # 的"message.max.bytes"。

3、设置开机启动

vi /lib/systemd/system/filebeat.service
[Unit]
Description=filebeat
Wants=network-online.target
After=network-online.target
[Service]
User=root
ExecStart=/data/elk/filebeat/filebeat -c /data/elk/filebeat/filebeat.yml
Restart=always
[Install]
WantedBy=multi-user.target
#加入开机启动
systemctl daemon-reload
systemctl enable filebeat

4、常用命令

systemctl start filebeat.service #启动
systemctl stop filebeat.service #停止
systemctl status filebeat.service #状态

启动后,filebeat会直接把对应的文件里面的日志自动发送到kafka对应的主题。如果不会安装kafka,请点击链接

标签:ELK,Filebeat,elk,分区,filebeat,Kafka,设置,data,系统日志
From: https://blog.csdn.net/m0_63603104/article/details/141591164

相关文章

  • filebeat配置
    下载文件切换至目录/srv/salt/files/packages因为线上的操作系统不同,有centos debiancurl -O https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-8.6.2-amd64.debcurl -O https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-8.6.2-x86_6......
  • ELK日志分析系统
    ELK ELK是一套开源的日志分析系统,由elasticsearch+logstash+Kibana组成。官网说明:https://www.elastic.co/cn/products首先:先一句话简单了解E,L,K这三个软件elasticsearch:分布式搜索引擎logstash:日志收集与过滤,输出给elasticsearchKibana......
  • Filebeat多目录收集日志
    参考:https://www.jianshu.com/p/d889aae7c72efilebeat日志通过redis传递至logstash在输出至elasticsearch参考https://www.cnblogs.com/minseo/p/9185423.html场景需求说明在同一台主机有多个日志需要区分不同index输出至elasticsearchfilebeat配置#cat/etc/filebeat/f......
  • ELK日志系统
    ELK日志系统ELK:是一套完整的日志集中处理方案。E:elasticsearchES分布式索引型非关系数据库存储logstash输出的日志,全文检索引擎。保存的格式json格式L:logstash基于Java开发的,数据收集引擎,日志的收集,可以对数据进行过滤,分析,汇总,以标准格式输出K:Kiabana是ES的可视化......
  • ELK Elasticsearch 集群部署
    ELKElasticsearch集群部署数据流向:1、后台服务器产生的日志由filebeat收集通过logstasg进行标准化处理,传输给es1、es2(两个是一个主备的关系,数据都是一致的),然后传输给可视化设备。有了flebeat可以节省资源,可以通过filebeat和logstash实现远程数据收集。filereat不能......
  • Java中的应用监控与日志分析工具选型:从Prometheus到ELK Stack
    Java中的应用监控与日志分析工具选型:从Prometheus到ELKStack大家好,我是微赚淘客系统3.0的小编,是个冬天不穿秋裤,天冷也要风度的程序猿!在现代软件开发中,应用监控和日志分析是确保系统稳定性和性能的重要组成部分。本文将探讨在Java项目中使用的监控和日志分析工具,重点介绍P......
  • filebeat 教程
    1.filebeat安装#rpm安装方式https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.17.5-x86_64.rpmrpm-ivhfilebeat-7.17.5-x86_64.rpmsystemctlenablefilebeat--now#二进制包安装方式1.下载mkdir-p/data/tools/filebeat/&&cd/data/tools/fi......
  • EFK之filebeat用法进阶
    接上一章节:https://blog.csdn.net/weixin_46546303/article/details/140279197?spm=1001.2014.3001.5501一、filebeatmodule输入流1.filebeatmodule作用Filebeat模块的主要作用是简化日志数据的收集和处理过程。通过使用模块,你可以快速地配置Filebeat来收集特定类......
  • springboot+vue前后端分离项目-项目搭建17-集成AOP系统日志
    后端1.新增logs表和实体类,新增com/example/demo/mapper/LogsMapper.java,新增com/example/demo/controller/LogsController.javapackagecom.example.demo.controller;importcn.hutool.core.util.StrUtil;importcn.hutool.poi.excel.ExcelReader;importcn.hutool.poi......
  • ELK对业务日志进行收集
    ELK对业务日志进行收集下载httpd进到文件设置收集httpd的文件进行设置编辑内容用于收集日志的内容将日志的内容发送到实例当中input{file{path=>/etc/httpd/logs/access_logtype=>"access"start_position=>"beginning"......