首页 > 其他分享 >部署logstash收集daemonset filebeat发过去的kafka日志

部署logstash收集daemonset filebeat发过去的kafka日志

时间:2023-02-25 22:31:42浏览次数:39  
标签:10.0 filebeat log kafka daemonset pod logstash

实现:部署如下图红框 位置logstash

架构:


主机:10.0.7.56

部署logstash

yum -y install java-1.8.0-openjdk
yum -y install https://mirror.tuna.tsinghua.edu.cn/elasticstack/7.x/yum/7.9.0/logstash-7.9.0.rpm
systemctl start logstash
systemctl enable logstash

创建配置文件

从kafka接收数据,发送到es

vim /etc/logstash/conf.d/daemonset-filebeat-kafka-to-es.conf
input {
kafka {
bootstrap_servers => "10.0.7.53:9092,10.0.7.54:9092,10.0.7.55:9092"
topics => ["daemonset-pod-console-log"]
codec => json {
charset => "UTF-8"
}
}
}

output {
if [fields][log_topic] == "daemonset-pod-console-log" {
elasticsearch {
hosts => ["10.0.7.46:9200","10.0.7.47:9200","10.0.7.48:9200"]
index => "daemonset-pod-console-log-%{+YYYY.MM.dd}"
}}
}

启动并查看日志

systemctl restart logstash
tail -f /var/log/logstash/logstash-plain.log

标签:10.0,filebeat,log,kafka,daemonset,pod,logstash
From: https://blog.51cto.com/yht1990/6085709

相关文章

  • Centos7 Kafka+zookeeper SASL认证实践
    一、概述上回已经完成kafka+zookeeper的基础功能的实现,但是因为默认不认证存在很大的安全风险,这次完成SASL_PLAINTEXT的认证类型实践。二、安全配置2.1zookeeperSASL配......
  • system管理kafka
    [root@ajsh-dev006systemd]#cat/usr/lib/systemd/system/kafka.service[Unit]Description=kafka[Service]User=rootLimitNOFILE=65535LimitNPROC=65535Environ......
  • kafka 拦截器
    生产者拦截器拦截器(Interceptor)是早在Kafka0.10.0.0中就已经引入的一个功能,Kafka一共有两种拦截器:生产者拦截器和消费者拦截器。生产者拦截器既可以用来在消息发送前......
  • Spring for Apache Kafka: @KafkaListener 的使用示例(消费)
    版本Version2.7.8-- 阅读Version2.7.8的SpringforApacheKafka官方文档,检出其中的注解@KafkaListener的使用方式。关键词:ConsumerRecord、Message、......
  • DaemonSet
    DaemonSet简介DaemonSet:服务守护进程,它的主要作用是在k8s集群所有的节点中运行我们部署的守护进程,相当于在集群节点上分别部署pod副本,如果有新的节点加入集群,DaemonSet会......
  • Kafka 分区器
    分区器消息在通过send()方法发往broker的过程中,有可能需要经过拦截器(Interceptor)、序列化器(Serializer)和分区器(Partitioner)的一系列作用之后才能被真正地发往broker......
  • SpringBoot30 - 整合Kafka
    SpringBoot整合Kafka安装​ windows版安装包下载地址:https://kafka.apache.org/downloads​ 下载完毕后得到tgz压缩文件,使用解压缩软件解压缩即可使用,解压后得到如下......
  • 一文读懂Kafka Connect核心概念
    概览KafkaConnect是一种用于在ApacheKafka和其他系统之间可扩展且可靠地流式传输数据的工具。它使快速定义将大量数据移入和移出Kafka的连接器变得简单。KafkaC......
  • Kafka 序列化
    序列化生产者需要用序列化器(Serializer)把对象转换成字节数组才能通过网络发送给Kafka。而在对侧,消费者需要用反序列化器(Deserializer)把从Kafka中收到的字节数组转换成......
  • Kafka 上手实战
    参数配置bootstrap.servers:该参数用来指定生产者客户端连接Kafka集群所需的broker地址清单,具体的内容格式为host1:port1,host2:port2,可以设置一个或多个地址,中间以......