首页 > 其他分享 >DHorse日志收集原理

DHorse日志收集原理

时间:2022-12-12 13:11:06浏览次数:64  
标签:filebeat DHorse 收集 ELASTICSEARCH log var 日志 name

实现原理

基于k8s的日志收集主要有两种方案,一是使用daemoset,另一种是基于sidecar。两种方式各有优缺点,目前DHorse是基于daemoset实现的。如图1所示:

图1

在每个k8s集群中启动一个daemoset组件,即Filebeat的服务,监控/var/log/containers目录下的日志文件变动,然后把日志内容推送到ELK集群。

DHorse日志配置

在DHorse的安装目录conf子目录下,可以通过filebeat-k8s.yml文件进行日志收集的相关配置,如下:

---
apiVersion: v1
kind: ConfigMap
metadata:
  # 默认名称,不允许修改
  name: filebeat-config
  # 默认命名空间,不允许修改
  namespace: dhorse-system
  labels:
    # 默认标签名,不允许修改
    app: filebeat
data:
  filebeat.yml: |-
    filebeat.inputs:
    - type: container
      paths:
        - /var/log/containers/*.log
      processors:
        - add_kubernetes_metadata:
            host: ${NODE_NAME}
            matchers:
            - logs_path:
                logs_path: "/var/log/containers/"

    # To enable hints based autodiscover, remove `filebeat.inputs` configuration and uncomment this:
    #filebeat.autodiscover:
    #  providers:
    #    - type: kubernetes
    #      node: ${NODE_NAME}
    #      hints.enabled: true
    #      hints.default_config:
    #        type: container
    #        paths:
    #          - /var/log/containers/*${data.kubernetes.container.id}.log

    processors:
      - add_cloud_metadata:
      - add_host_metadata:

    cloud.id: ${ELASTIC_CLOUD_ID}
    cloud.auth: ${ELASTIC_CLOUD_AUTH}

    output.elasticsearch:
      hosts: ['${ELASTICSEARCH_HOST:elasticsearch}:${ELASTICSEARCH_PORT:9200}']
      username: ${ELASTICSEARCH_USERNAME}
      password: ${ELASTICSEARCH_PASSWORD}
---
apiVersion: apps/v1
kind: DaemonSet
metadata:
  # 默认名称,不允许修改
  name: filebeat
  # 默认命名空间,不允许修改
  namespace: dhorse-system
  labels:
    # 默认标签名,不允许修改
    app: filebeat
spec:
  selector:
    matchLabels:
      # 默认标签名,不允许修改
      app: filebeat
  template:
    metadata:
      labels:
        # 默认标签名,不允许修改
        app: filebeat
    spec:
      terminationGracePeriodSeconds: 30
      hostNetwork: true
      dnsPolicy: ClusterFirstWithHostNet
      containers:
      - name: filebeat
        # 替换成你自己的filebeat镜像
        image: docker.elastic.co/beats/filebeat:8.1.0
        args: [
          "-c", "/etc/filebeat.yml",
          "-e",
        ]
        #替换成你自己的es地址和账号
        env:
        - name: ELASTICSEARCH_HOST
          value: 127.0.0.1
        - name: ELASTICSEARCH_PORT
          value: "9200"
        - name: ELASTICSEARCH_USERNAME
          value: elastic
        - name: ELASTICSEARCH_PASSWORD
          value: changeme
        - name: ELASTIC_CLOUD_ID
          value:
        - name: ELASTIC_CLOUD_AUTH
          value:
        - name: NODE_NAME
          valueFrom:
            fieldRef:
              fieldPath: spec.nodeName
        securityContext:
          runAsUser: 0
          # If using Red Hat OpenShift uncomment this:
          #privileged: true
        resources:
          limits:
            memory: 200Mi
          requests:
            cpu: 100m
            memory: 100Mi
        volumeMounts:
        - name: config
          mountPath: /etc/filebeat.yml
          readOnly: true
          subPath: filebeat.yml
        - name: data
          mountPath: /usr/share/filebeat/data
        - name: varlibdockercontainers
          mountPath: /var/lib/docker/containers
          readOnly: true
        - name: varlog
          mountPath: /var/log
          readOnly: true
        - name: hosttime
          mountPath: /etc/localtime
          readOnly: true
      volumes:
      - name: config
        configMap:
          defaultMode: 0640
          name: filebeat-config
      - name: varlibdockercontainers
        hostPath:
          path: /var/lib/docker/containers
      - name: varlog
        hostPath:
          path: /var/log
      - name: hosttime
        hostPath:
          path: /etc/localtime
      # data folder stores a registry of read status for all files, so we don't send everything again on a Filebeat pod restart
      - name: data
        hostPath:
          # When filebeat runs as non-root user, this directory needs to be writable by group (g+w).
          path: /var/lib/filebeat-data
          type: DirectoryOrCreate

然后,需要开启目标集群的日志开关即可,如图2所示:

图2

标签:filebeat,DHorse,收集,ELASTICSEARCH,log,var,日志,name
From: https://www.cnblogs.com/tiandizhiguai/p/16975766.html

相关文章

  • Vue响应式依赖收集原理分析-vue高级必备
    背景在Vue的初始化阶段,_init方法执行的时候,会执行initState(vm),它的定义在src/core/instance/state.js中。在初始化data和propsoption时我们注意initProps......
  • 使用OData协议查询Windows日志
    OData开放数据协议是微软针对Google的GData推出的,旨在推广Web程序数据库格式标准化的开放数据协议,微软将OData定义为基于HTTP、AtomPub和JSON的协......
  • Sharding-JDBC 问题收集
    Sharding-JDBC问题收集简介Sharding-JDBC最早是当当网内部使用的一款分库分表框架,到2017年的时候才开始对外开源,这几年在大量社区贡献者的不断迭代下,功能也逐渐完善,现......
  • 使用Python解析Windows系统日志
    目标要求:对Windows系统日志进行处理,并生成统计文件1.如何找到Windows系统日志?通常情况下,我们都是在Windows系统自带的事件查看器查看系统日志(使用win+x可以快速......
  • 日志打印相关代码
    1. 类似printf函数的实现原理1.intprintf(constchar*format,...);format是固定参数,是参数1…是可变参数2.相关宏(1)va_list就是一......
  • tomcat打印日志乱码问题
    对于tomcat打印中文乱码问题,处理方式如下:找到tomcat安装目录下的conf目录,在里面找到logging.properties文件修改logging.properties文件中设置的编码格式,主要......
  • ELK+FileBeat日志分析系统
    一、ELK日志分析系统概述1.1ELK简介ELK是三个开源软件的缩写,分别表示:Elasticsearch,Logstash,Kibana,它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志......
  • 分布式收集日志
    基于logstashfilter功能将nginx默认的访问日志及errorlog转换为json格式并写入elasticsearch安装nginxtarxfnginx-1.22.1.tar.gzcdnginx-1.22.1/./configure--pre......
  • java gc日志的基本知识
    回顾一下gc日志的基本知识,下面是一条gc日志:33.125:[GC[DefNew:3324k->152k(3712k),0.0025925secs]3324k>152k(11904k),0.0031680secs]从左至右,各个信息的意思为:33.1......
  • ELK日志分析系统
    一、ELK概述1、ELK概述ELK是三个开源项目的首字母缩写,分别是:Elasticsearch、Logstash和KibanaElasticsearch简称ES,它是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结......