首页 > 其他分享 >Filebeat on k8s 日志采集实战操作

Filebeat on k8s 日志采集实战操作

时间:2023-11-05 21:11:06浏览次数:35  
标签:filebeat compose 部署 Filebeat docker k8s 日志

目录

一、概述

Filebeat 是一个轻量级的开源日志文件和数据收集器,由 Elastic 公司开发,用于采集、解析和发送日志数据。在 Kubernetes 中,Filebeat通常用于采集容器日志,并将其发送到中央日志存储、分析或搜索工具,如 Elasticsearch、Logstash 或 Fluentd。

以下是 FilebeatKubernetes 中日志采集的工作原理:

  1. Filebeat 容器部署:首先,在 Kubernetes 集群中创建一个或多个 Filebeat 容器的 Pod。这些 Pod 可以位于同一节点上,也可以分布在多个节点上,具体取决于您的部署方式和需求。

  2. Filebeat 配置文件:每个 Filebeat 容器需要一个配置文件,该文件定义了 Filebeat 要监视的日志源、采集策略、日志过滤规则和目标输出等。配置文件通常以 YAML 格式定义。

  3. Kubernetes ConfigMapFilebeat 配置文件通常存储在 Kubernetes ConfigMap 中。ConfigMapKubernetes 中的资源,用于存储配置数据,以便它可以被多个容器访问。Filebeat 容器将挂载包含配置文件的 ConfigMap,并将其用作配置源。

  4. Filebeat 启动Filebeat 容器启动后,它会读取配置文件并按照配置定义的规则开始采集日志。这包括监视容器的日志文件、容器日志目录或其他数据源。

  5. 日志采集和解析Filebeat 会定期扫描配置的日志源,并将新的日志行采集到内部队列中。它还可以对采集的日志进行解析,以提取有用的信息,如时间戳、日志级别、标签等。Filebeat 可以根据您的配置对日志数据进行结构化处理。

  6. 输出到目标Filebeat 会将采集的日志数据发送到指定的输出目标,通常是中央日志存储、分析或搜索工具。常见的输出目标包括 ElasticsearchLogstashKafka 或各种云日志服务。

  7. 数据传输和处理:输出目标将接收到的日志数据进行存储、处理、分析或可视化。这通常涉及到对数据的索引、搜索、过滤和可视化,以便用户可以查询和分析日志数据。

Filebeat 提供了丰富的配置选项,可以根据您的需求对日志数据进行高度定制和筛选。它还支持自动发现新容器、节点和服务,并动态调整采集策略。这使得它成为 Kubernetes 环境中日志采集的有力工具。

总的来说,Filebeat 的工作原理是不断监视和采集容器生成的日志,然后将这些日志数据发送到中央处理工具,以便分析和可视化。这有助于集中管理和分析容器日志,以便更好地了解应用程序的状态和性能。

在这里插入图片描述
Filebeat 官方文档:https://www.elastic.co/guide/en/beats/filebeat/current/filebeat-overview.html

以前也写过关于 filebeat 更详细的介绍和实战操作的文章,只不过 filebeat 不是部署在 k8s 上,感兴趣的小伙伴可以先查阅我之前的文章:

二、K8s 集群部署

k8s 环境安装之前写过很多文档,可以参考我以下几篇文章:

三、ElasticSearch 和 kibana 环境部署

这里可以选择以下部署方式:

这里我选择 docker-compose 部署方式。

1)部署 docker

# 安装yum-config-manager配置工具
yum -y install yum-utils

# 建议使用阿里云yum源:(推荐)
#yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

# 安装docker-ce版本
yum install -y docker-ce
# 启动并开机启动
systemctl enable --now docker
docker --version

2)部署 docker-compose

curl -SL https://github.com/docker/compose/releases/download/v2.16.0/docker-compose-linux-x86_64 -o /usr/local/bin/docker-compose

chmod +x /usr/local/bin/docker-compose
docker-compose --version

3)创建网络

# 创建
docker network create bigdata

# 查看
docker network ls

4)修改 Linux 句柄数和最大线程数

#查看当前最大句柄数
sysctl -a | grep vm.max_map_count
#修改句柄数
vi /etc/sysctl.conf
vm.max_map_count=262144

#临时生效,修改后需要重启才能生效,不想重启可以设置临时生效
sysctl -w vm.max_map_count=262144

#修改后需要重新登录生效
vi /etc/security/limits.conf

# 添加以下内容
* soft nofile 65535
* hard nofile 65535
* soft nproc 4096
* hard nproc 4096

# 重启服务,-h 立刻重启,默认间隔一段时间才会开始重启
reboot -h now

5)下载部署包开始部署

# 这里选择 docker-compose 部署方式
git clone https://gitee.com/hadoop-bigdata/docker-compose-es-kibana.git

cd docker-compose-es-kibana

chmod -R 777 es kibana

docker-compose -f docker-compose.yaml up -d

docker-compose ps

四、Filebeat on k8s 部署(daemonset)

部署包下载地址:https://artifacthub.io/packages/helm/elastic/filebeat

1)安装 helm

# 下载包
wget https://get.helm.sh/helm-v3.9.4-linux-amd64.tar.gz
# 解压压缩包
tar -xf helm-v3.9.4-linux-amd64.tar.gz
# 制作软连接
cp ./linux-amd64/helm /usr/local/bin/helm
# 验证
helm version
helm help

2)下载部署包进行安装

1、下载安装包

helm repo add elastic https://helm.elastic.co

helm pull elastic/filebeat --version 7.17.3

tar -xf filebeat-7.17.3.tgz

2、修改配置

# 修改配置 filebeat/values.yaml,主要把 ELasticsearch 地址更换
vi filebeat/values.yaml

# 主要修改filebeat配置
  filebeatConfig:
    filebeat.yml: |
      filebeat.inputs:
      - type: container
        paths:
          - /var/log/containers/*.log
        fields:
          index: k8s-pod-log
        processors:
        - add_kubernetes_metadata:
            host: ${NODE_NAME}
            matchers:
            - logs_path:
                logs_path: "/var/log/containers/"

      output.elasticsearch:
        host: '${NODE_NAME}'
        hosts: '192.168.182.110:9200'
        index: "filebeat-%{[fields][index]}-%{+yyyy.MM.dd}"

      setup.template.name: "default@template"
      setup.template.pattern: "filebeat-k8s-*"
      setup.ilm.enabled: false

3、开始安装 filebeat

helm install filebeat ./filebeat -n logging --create-namespace

kubectl get pods -n logging

3)检查数据是否正常采集到 ES

访问 kibana:http://ip:5601/

1、Stack Management
在这里插入图片描述
2、索引模式
在这里插入图片描述
3、开始创建索引模式
在这里插入图片描述
4、Discover 查询数据
在这里插入图片描述
其实采集原理是非常简单的,就是通过挂载宿主机的容器日志目录 /var/lib/docker/containers 到容器的 /var/lib/docker/containers

在这里插入图片描述
但是通过这种挂载宿主机容器目录有个弊端,就是只能采集 pod 标准输出的日志,其它日志是收集不到的,下篇文章将介绍另外两种方式采集来解决这个问题。


Filebeat on k8s 日志采集实战操作介绍就先到这里了,有任何疑问也可关注我公众号:大数据与云原生技术分享,进行技术交流,如本篇文章对您有所帮助,麻烦帮忙一键三连(点赞、转发、收藏)~

标签:filebeat,compose,部署,Filebeat,docker,k8s,日志
From: https://www.cnblogs.com/liugp/p/17811199.html

相关文章

  • mysql教程:binlog日志和数据备份
    DMLDDL数据恢复、主从复制数据备份:全量备份、增量备份数据恢复的步骤:备份数据库–还原数据文件–应用binlog–验证数据mysqlbinlog工具、将备份后的修改操作应用到数据库,将数据库恢复到最新的状态数据库的完整性、一致性binlog和数据备份数据备份是将数据库的数据文件复制到另......
  • Linux学习日志
    Linux学习日志1、走近Linux系统1.1、开机登录开机会启动许多程序。它们在Windows叫做"服务"(service),在Linux就叫做"守护进程"(daemon)。开机成功后,它会显示一个文本登录界面,这个界面就是我们经常看到的登录界面,在这个登录界面中会提示用户输入用户名,而用户输入的用户将作为参数传......
  • k8s minikube的使用
    doc 地址在:https://minikube.sigs.k8s.io/docs/start/ https://kubernetes.io/docs/tutorials/hello-minikube/可以创建一个kube集群,然后在集群内创建布署, 然后获取集群内的各种服务, 然后操作删除各种服务,监控状态,然后可以配置暴露端口 ......
  • 103 添加日志
    1,nuget安装log4net2,assemblyinfo追加:[assembly:log4net.Config.XmlConfigurator(ConfigFile="log4net.Config",ConfigFileExtension="config",Watch=true)]3,增加:<sectionname="log4net"type="log4net.Config.Log4NetConf......
  • Hadoop-3.3.3分布式集群的文件配置,启动hadoop历史服务和启动日志聚集
    一、分布式集群的文件配置涉及$HADOOP_HOME/etc/hadoop路径下的5个文件workers、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml首先修改workers进入$HADOOP_HOME/etc/hadoopvimworkers编辑自己的主机节点。注意!每行一个,默认为把本机节点同时作为数据节......
  • k8s相关
      在Kubernetes中,命名空间有四种状态,分别是:Active:这是命名空间的主要状态,表示它正在被使用并且可以接受新资源。Terminating:这个状态表示命名空间正在被删除,当命名空间下的所有资源都被清理完毕后,该命名空间就会被自动删除。Failed:这个状态表示命名空间在创建过程中失败了......
  • filebeat和logstash的简单配置
    filebeat基本配置#输入filebeat.inputs:-type:logenabled:truepaths:-Z:\webman\runtime\logs\ad-*.log#json.keys_under_root:true#json.overwrite_keys:true#json.add_error_key:truefields_under_root:true#这种配置既可以解析json,又......
  • filebeat采集日志存在日志丢失的情况
    filebeat搜集的速度跟不上日志打印的速度问题:filebeat读取k8scontainer日志,生产到kafka过程中,出现丢数据。如下图实际生产了1w+日志,但只生产了5746条 定位:因为是EFK流程,首先,需要确定是生产还是消费出现了问题,直接kafka命令行使用另外的消费组消费同一topic的kafka数据,得出的......
  • [持续更新] k8s 遇到的问题
    kubectl命令报错couldn'tgetcurrentserverAPIgrouplist:...connect:connectionrefusedkubenets在运行时,依赖环境变量。如果所有的服务都是正常的,只是kubectl命令报错,那就是环境变量没有设置导致。一般报错样例如下:couldn'tgetcurrentserverAPIgrouplist:Get"......
  • sh脚本扫描k8s一批微服务过滤错误日志生成文件
    sh脚本扫描k8s一批微服务过滤错误日志生成文件,并用vim一次性打开所有日志文件进行错误排查#!/bin/bashecho"请输入param参数(多个参数用逗号分隔,默认为admin-center,space,permission,user,project,project-center):"readparamparam=${param:-"admin-center,space,permission,......