首页 > 其他分享 >filebeat对接kafka

filebeat对接kafka

时间:2023-03-06 18:35:41浏览次数:36  
标签:filebeat log -- 对接 kafka topic multiline

一般数据采集主要使用elk,为了提高数据采集性能和效率,filebeat采集日志发送给kafka,logstash从kafka消费数据存入es。主要记录使用以防忘记

 

 

 

 

一、kafka集群部署 按照标准方式部署就行 创建2个topic
./bin/kafka-topics.sh --create --zookeeper 127.0.0.1:3000 --replication-factor 2 --partitions 3 --topic topic-name
./bin/kafka-topics.sh --create --zookeeper 127.0.0.1:3000 --replication-factor 2 --partitions 3 --topic topic-name
二、filebeat配置
filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /data/logs/catalina.out.*
  fields:
    log_topic: topic-test
  exclude_files: ['\.gz$']
  multiline.pattern: '^\d{4}\-\d{2}-\d{2}'
  multiline.negate: true
  multiline.match: after
  ignore_older: 5m

- type: log
  enabled: true
  paths:
    - /data/logs/catalina.out.*
  fields:
    log_topic: topic-test1
  exclude_files: ['\.gz$']
  multiline.pattern: '^\d{4}\-\d{2}-\d{2}'
  multiline.negate: true
  multiline.match: after
  ignore_older: 5m
processors:
  - drop_fields:
      fields: ["agent", "@version", "log", "input","ecs","version"]

filebeat.config.modules:
  path: ${path.config}/modules.d/*.yml
  reload.enabled: false
setup.template.settings:
  index.number_of_shards: 3

filebeat.registry.path: /data/filebeat/registry

output.kafka:
  hosts: ["kafka01:8101","kafka02:8102","kafka03:8103"]
  topic: '%{[fields.log_topic]}'
  partition.round_robin:
    reachable_only: true
  required_acks: 1
  compression: gzip
  max_message_bytes: 1000000
  worker: 2

 

三、logstash配置
input{
    kafka {
        enable_auto_commit => true
        auto_commit_interval_ms => "500"
        codec => "json"
        bootstrap_servers => "kafka01:8101,kafka02:8102,kafka03:8103" 
        group_id => "group-01"
        auto_offset_reset => "latest"
        topics => "topic-test"
        consumer_threads => 3
   }

}

output {
    elasticsearch {
        #action   => "index"
        hosts    => ["127.0.0.1:8200"]                          
        index    => "topic-test-%{+YYYY.MM.dd}"
        user     => "xxxx"
        password => "xxxx"
    }
}

 

标签:filebeat,log,--,对接,kafka,topic,multiline
From: https://www.cnblogs.com/quanloveshui/p/17184916.html

相关文章

  • java对接SCOM微软监控系统告警
    背景项目上需要对接scom微软监控系统告警,能够拿到手的资料十分有限,只有几个官方文档地址:OperationsManagerRESTAPIReference-OperationsManagerRESTAPI|Micro......
  • 对接外部功能模块的一点心得
    1.直接采用DMA+空闲中断来及时接受串口数据能够解决大部分的接受数据2.针对某些模块空闲中断不能解决,原因是传输数据过程中,模块传递的某些字节超过了空闲中断的时间,导......
  • Cisco ISR路由器与Hillstone 防火墙对接IPsec
    用户需求:公司总部有一台Hillstone防火墙,分公司有一台CiscoISR路由器,现在用户想在分公司访问总部的内网资源,于有就有了这一次的IPsec对接。配置过程:一、CiscoISR路由器cryp......
  • java——spring boot集成kafka——kafka介绍以及概念理解
                  首先,让我们来看一下基础的消息(Message)相关术语:名称解释Broker消息中间件处理节点,⼀个Kafka节点就是⼀个broker,⼀个......
  • java——spring boot集成kafka——消息队列的流派
                   ......
  • vm-kafka安装
    官网下载http://kafka.apache.org/downloads下载制定版本2.11-0.10.1.0现在对应安装包之后,上传到 centos 系统,进行对应解压操作修改配置文件设置修改文件中的......
  • kafka 常用命令
    kafka介绍kafka官网:http://kafka.apache.org/各个名词解释:*producer:发布消息的对象称之为消息生产者(Kafkatopicproducer)*topic:Kafka将消息分门别类,每一类的消息称......
  • 中移链元交易功能对接说明
    前言12月5日,由中国移动信息技术中心研发的中移链“元交易”功能,已在BSN-DDC基础网络正式上线。中移链“元交易”是将多个连续的中移链链操作打包整合,保障操作事务统一、一致......
  • ABP微服务系列学习-对接前端界面
    前面我们把后端的微服务架子基本搭建完成并成功启动了,现在我们可以对接前端界面了。这里我们直接用ABP模板里面的Angular的前端界面。创建应用程序模板使用ABPCli创建一......
  • Kafka3.4:基于kraft集群搭建
    环境准备环境:jdk8,三台centos机器,基于kraft模式(不使用zk)kafka安装包:https://mirrors.aliyun.com/apache/kafka/3.4.0/kafka_2.13-3.4.0.tgz机器iphostname配置......