首页 > 其他分享 >一文带你玩转全新采集配置 CRD:AliyunPipelineConfig

一文带你玩转全新采集配置 CRD:AliyunPipelineConfig

时间:2024-08-06 18:08:48浏览次数:15  
标签:name 配置 project 采集 玩转 CRD AliyunPipelineConfig log

作者:玄飏

既然是一文玩转,自然要讲些背景

1.1. 什么是 iLogtail 采集配置

长话短说:

  • SLS:阿里云日志服务,一站式提供数据采集、加工、查询与分析、可视化、告警、消费与投递等功能,全面提升您在研发、运维、运营、安全等场景的数字化能力。
  • iLogtail:SLS 推出的一款可观测数据采集器,拥有轻量级、高性能、自动化配置等特性,可以将它部署于物理机,虚拟机,Kubernetes 等多种环境中来采集可观测数据,例如 logs、traces 和 metrics。
  • iLogtail 采集配置:iLogtail 采集数据的流水线是通过采集配置定义的,一个采集配置里包含数据的输入、处理、输出等信息。

在 SLS 控制台,一个简单的采集配置长这样:

图片

1.2. 为什么我们需要 CRD 来管理采集配置

通过控制台管理采集配置,终究是不够自动化。

试想:若是每次发布,都需要手动上控制台修改一批采集配置,岂不是太麻烦了?更何况可能改错。

在云原生时代,我们需要更方便的方式,来管理采集配置。这种方式,它最好是可灵活扩展的,不与业务耦合;它最好是可以集中管理和监控的,来简化运维的操作;它最好是方便集成与自动化部署的,来降低部署的难度……

基于以上需求,CRD 就这样进入了我们的视线。

在 Kubernetes 环境中,CRD 是一种扩展 K8s API 的方法,允许用户定义和管理自己的资源。使用 CRD,可以将采集配置作为 Kubernetes 对象进行管理,使其与其他 Kubernetes 资源(如 Pod、Service、Deployment)保持一致。

看着真不错,那就整一个 CRD 吧!

1.3. 你说得对,但是我们不是已经有一种 CRD 了吗?

是的,我们有一个 CRD——AliyunLogConfig。

1.3.1. 聊聊 AliyunLogConfig

让我们先看一个简单的 AliyunLogConfig 配置示例:

apiVersion: log.alibabacloud.com/v1alpha1
kind: AliyunLogConfig
metadata:
  # 设置资源名,在当前Kubernetes集群内唯一。
  name: example-k8s-file
  namespace: kube-system
spec:
  # 【可选】目标project
  project: k8s-log-xxxx
  # 设置Logstore名称。如果您所指定的Logstore不存在,日志服务会自动创建。
  logstore: k8s-file
  # 【可选】Logstore shard数
  shardCount: 10
  # 【可选】Logstore存储时间
  lifeCycle: 30
  # 【可选】Logstore热存储时间
  logstoreHotTTL: 7
  # 设置iLogtail采集配置。
  logtailConfig:
    # 设置采集的数据源类型。采集文本日志时,需设置为file。
    inputType: file
    # 设置iLogtail采集配置的名称,必须与资源名(metadata.name)相同。
    configName: example-k8s-file
    inputDetail:
      # 指定通过极简模式采集文本日志。
      logType: common_reg_log
      # 设置日志文件所在路径。
      logPath: /data/logs/app_1
      # 设置日志文件的名称。支持通配符星号(*)和半角问号(?),例如log_*.log。
      filePattern: test.LOG
      # 采集容器的文本日志时,需设置dockerFile为true。
      dockerFile: true
      # 设置容器过滤条件。
      advanced:
        k8s:
          K8sNamespaceRegex: ^(default)$
          K8sPodRegex: '^(demo-0.*)$'
          K8sContainerRegex: ^(demo)$
          IncludeK8sLabel:
            job-name: "^(demo.*)$"

AliyunLogConfig 内置了默认 Project,使用时,只需要指定目标 Logstore,并编辑采集配置,就可以实现数据接入。后来,随着 AliyunLogConfig 不断发展,还新增了一些新功能,比如支持定义 Logstore 的创建参数、支持指定目标 project、支持简单的跨地域、跨账号能力等等。

AliyunLogConfig 会把 CR 的处理结果反馈到 Status 字段中,内有 statusCode 与 statu 两个字段。

status:
  statusCode: 200
  status: OK  

总的来说,AliyunLogConfig 作为管理采集配置的 CRD,可以满足基本的功能需求,且可以支持一些复杂场景。

1.3.2. 英雄迟暮,AliyunLogConfig 的局限性

随着 SLS 不断发展,AliyunLogConfig 的局限性也不断凸显出来。

  • 结构混乱
    • SLS 资源描述不清晰,CRD 管理的 SLS 资源有:project,logstore,machingroup,config,这些都平铺在 spec 中。
    • 字段值含义不清:例如 Logstore 的属性,有的有 logstore 前缀(logstoreHotTTL),有的没有前缀(shardCount),而且这些参数名与 API 不一致(lifeCycle 与 ttl)。
  • 功能不完善
    • 资源的 create,update,delete 应该明确统一,project,logstore 相关的配置只有首次创建生效,不允许更新,config 可以更新。
    • 多个 CR 指向一个配置,会出现冲突覆盖,尤其是跨集群场景,很容易出现该问题。

全体目光向我看齐,全新 CRD 来了!

我们全新的 CRD——AliyunPipelineConfig,来了!

相较于 AliyunLogConfig,AliyunPipelineConfig 在配置格式、行为逻辑上做了很大改进,主打的就是灵活、简单、稳定。

类型 AliyunPipelineConfig(全新升级) AliyunLogConfig
ApiGroup telemetry.alibabacloud.com/v1alpha1 log.alibabacloud.com/v1alpha1
CRD资源名 ClusterAliyunPipelineConfig AliyunLogConfig
作用域 集群 默认集群
采集配置格式 基本等价于日志服务API中的“LogtailPipelineConfig [ 1] 基本等价于日志服务API中的“LogtailConfig [ 2]
跨地域能力 支持 支持
跨账号能力 支持 支持
webhook校验参数 支持 不支持
配置冲突检测 支持 不支持
配置难度 较低 较高
配置可观测性 Status包含错误详情、更新时间、上次应用成功配置、上次应用成功时间等信息 Status包含错误码与错误信息

2.1. 你是不知道 AliyunPipelineConfig 的配置有多简洁

AliyunPipelineConfig 的整体结构如下:

apiVersion: telemetry.alibabacloud.com/v1alpha1
kind: ClusterAliyunPipelineConfig
metadata:
  name: test-config
spec:
  project: # 目标project
    name: k8s-your-project # project名
    uid: 11111 #【选填】账号
    endpoint: cn-hangzhou-intranet.log.aliyuncs.com # 【选填】endpoint
  logstores: #【选填】需要创建的 logstore 列表,与 CreateLogstore 接口基本一致
    - name: your-logstore # logstore名
      ttl: 30 #【选填】数据保存时间
      shardCount: 10 #【选填】shard 数
      ... #【选填】其他 Logstore 参数
  machineGroups: #【选填】需要与采集配置关联的机器组列表
    - name: machine-group-1 # 机器组名
    - name: machine-group-2 # 机器组名
  config: # 采集配置,格式与 CreateLogtailPipelineConfig 接口基本一致
    sample: #【选填】日志样例
    global: #【选填】全局配置
    inputs: # 输入插件,必须有且只有一个                  
      ...
    processors: #【选填】处理插件,可以自由组合
      ...
    aggregators: #【选填】聚合插件
      ...
    flushers: # 输出插件,只能有一个flusher_sls                              
      ...
  enableUpgradeOverride: false #【选填】用于升级 AliyunLogConfig

AliyunPipelineConfig 的配置有几个特点:

  • 结构清晰
    • 按 sls 资源类型分类,有 project、logstore、machineGroup、config。
  • 必填项少
    • 必填项只有 project.name、config.inputs 和 config.flushers,其他字段都可以灵活填写。
  • 贴合 API
    • logstore、config 的数据结构、参数命名与 SLS API 一致。

下面,我们详细讲讲 spec 字段里的字段。

2.1.1. project 字段详解与配置指南

project 字段列表如下:

参数 数据类型 是否必填 说明
name string 目标 Project 的名称。
description string 目标 Project 的描述。
endpoint string 目标 Project 的服务入口。仅在有跨地域的需求时填写。
uid string 目标账号的 uid。仅在有跨账号的需求时填写。

有一些注意点:

  • project 字段在 CR 创建后无法修改,如果需要切换 project 需要创建新的 CR。
  • name 字段为必填,采集到的日志会发到这里。
  • endpoint 字段仅在有跨地域的需求时填写,否则会默认在集群所在的地域。
  • uid 字段仅在有跨账号的需求时填写,其他场景不用关心这个参数。
  • 如果指定的 project 不存在的话,会尝试创建,创建 project 时如果填写了endpoint、uid,则会创建到对应的地域/账号下

2.1.2. config 字段详解与配置指南

config 字段列表如下:

参数 数据类型 是否必填 说明
sample string 日志样例。
global object 全局配置。
inputs object列表 输入插件列表。
processors object列表 处理插件列表。
aggregators object列表 聚合插件列表。
flushers object列表 输出插件列表。
configTags map 用于标记iLogtail采集配置的自定义标签。

为了追求使用体验的统一、功能的完善,config的详细信息与插件参数,与 SLS CreateLogtailPipelineConfig [ 3] 接口的 “请求参数” 完全一致,并支持所有功能。

这里需要注意:

  • 当前 Inputs 插件列表只支持配置一个(API 层面限制)。
  • 当前 Flushers 插件列表只支持配置一个,且只能是 flusher_sls(API 层面限制)。
  • configTags 是打在采集配置上的标签,不是写到日志里的 tag。

2.1.3. logstores 字段详解与配置指南

logstores 字段,里面支持配置多个 logstore 属性。单个 logstore 的参数列表如下:

image.png

这里的 Logstore 参数,完全支持了 SLSCreateLogstore [ 4] 接口中的参数,并且支持修改计费模式。

这里的注意点有:

  • 一般场景下创建 Logstore,只需要填写 name 即可,其他参数不必关心,它们的默认值与在控制台创建 Logstore 是一样的。
  • 所有的参数仅在创建 Logstore 时有效,已有的 Logstore 不会被该参数修改。

2.1.4. machineGroups 字段详解与配置指南

machineGroups 字段,里面支持配置多个机器组。下面是单个机器组的参数列表:

参数 数据类型 是否必填 说明
name string 需要与iLogtail采集配置关联的机器组名。

机器组配置做了简化处理,只需要填写 name,就会创建一个标识型机器组,机器组的名字与自定义标识一致。

需要注意:

  • machineGroups 字段默认不需要填写,使用默认的日志组件自动创建的机器组就可以了。
  • 已有的机器组的属性不会被覆盖,即原本有一个 ip 机器组叫 a,这里配置 a 的话,不会把 a 机器组改为标识型的。
  • 采集配置的机器组会与这里配置的机器组严格一致,如果需要添加机器组,需要编辑这个参数。

2.2. 你只需要填参数就可以,但 AliyunPipelineConfig 要考虑的事情就很多了

相信大家都有遇到过,面对一个不熟悉的配置,乱填一通参数,提交上去,发现又没有成功,又没有报错,整个流程卡死在那了。

AliyunPipelineConfig 不会让你受这样的委屈!你只管填写参数,其他的事情,AliyunPipelineConfig 全兜了!

2.2.1. 假如,我是说假如,你填错了参数格式

AliyunPipelineConfig 具有详细的 CRD 格式规范,同时搭配了 webhook 进行校验,让格式问题无所遁形!

  • CRD 的格式校验由 K8s 进行,保证整体结构不出差错

图片

  • webhook 会校验更细节的固定参数的值,例如:
    • metadata.name 需要作为采集配置名使用,需要符合采集配置名的要求
    • spec.project.name 需要符合 project 名规范
    • spec.config.inputs 必须要有插件
    • ……

全方位为你保驾护航。

2.2.2. 假如,我是说假如,你遇到了报错

虽然有参数值的校验,但参数内容也还是可能填错的,就比如我们的 Logstore,创建的时候参数那么多,难免填错一个;或者,机器组配额超限了,写了一些机器组怎么都创建不出来;或者,填写的 uid 错了,没有获取到跨账号的权限……

这些情况,可以由我们 AliyunPipelineConfig 的 Status 字段,全部展示出来!下面是一段采集配置,在配置时指定错了 project,使用了其他用户的 project,那么这里就会有报错:

apiVersion: telemetry.alibabacloud.com/v1alpha1
kind: ClusterAliyunPipelineConfig
metadata:
  finalizers:
    - finalizer.pipeline.alibabacloud.com
  name: example-k8s-file
# 预期的配置
spec:
  config:
    flushers:
      - Endpoint: cn-hangzhou.log.aliyuncs.com
        Logstore: k8s-file
        Region: cn-hangzhou
        TelemetryType: logs
        Type: flusher_sls
    inputs:
      - EnableContainerDiscovery: true
        FilePaths:
          - /data/logs/app_1/**/test.LOG
        Type: input_file
  logstores:
    - encryptConf: {}
      name: k8s-file
  project:
    name: k8s-log-clusterid
# CR的应用状态
status:
  # CR 是否应用成功
  success: false
  # CR 当前的状态信息,应用失败会展示报错详情
  message: |-
    {
        "httpCode": 401,
        "errorCode": "Unauthorized",
        "errorMessage": "The project does not belong to you.",
        "requestID": "xxxxxx"
    }
  # 当前 status 的更新时间
  lastUpdateTime: '2024-06-19T09:21:34.215702958Z'
  # 上次成功应用的配置信息,该配置信息为填充默认值后实际生效的配置。本次没有应用成功,所以这里为空
  lastAppliedConfig:
    config:
      flushers: null
      global: null
      inputs: null
    project:
      name: ""

通过这些报错信息,就可以很方便地定位到问题。

另外,AliyunPipelineConfig 会进行失败重试,如果是临时发生的报错(例如某个project 的 logstore 额度不够,很快调整好了),后续都会重试到正常为止(重试间隔指数增长)。

2.2.3. 假如,我是说假如,你多个配置冲突了

在 AliyunLogConfig 时代,我们可能会遇到这样的问题:一不小心好几个 CR 指向了同一个 project/config,导致整个采集配置被几个 CR 相互覆盖,日志采集被影响。

图片

AliyunPipelineConfig 会帮你解决这个问题!在创建采集配置时,AliyunPipelineConfig 会给采集配置打上标签,记录CR所在的集群、类型、命名空间:

图片

对于有标签的采集配置,只有创建者可以对它进行修改,其他 CR 的请求会被拒绝。当然,被拒绝的 CR 也会把拒绝信息写到 Status 中,告诉你它与 xx 集群 xx 命名空间 xx 类型的名为 xx 的 CR 出现了冲突,这样可以快速定位,解决问题。

图片

眼睛:懂了。手:我不会!

你可能会说了:你 balabala 说了这么一大堆,我好像看懂了但还是不会配置啊!

别急,下面来几个例子,实操练手。

3.1. 经典场景,采集并解析 nginx-ingress 日志

这是 ACK ingress 组件配置日志采集的文档 [ 5] ,可以看到里面配置了一个比较复杂的 AliyunLogConfig CR,并配上了很长的说明:

图片

我们现在用 AliyunPipelineConfig 来实现它:

  • 下面的 需要替换成你实际的 project
  • 下面的 需要替换成你的实际 endpoint,例如 cn-hangzhou.log.aliyuncs.com
  • 下面的 需要替换成你的实际 region,例如 cn-hangzhou
apiVersion: telemetry.alibabacloud.com/v1alpha1
kind: ClusterAliyunPipelineConfig
metadata:
  name: k8s-nginx-ingress
spec:
  # 指定目标 project
  project:
    name: <your-project-name>
  logstores:
    # 创建 Logstore,用于存储Ingress日志
    - name: nginx-ingress
      # 产品Code,请勿更改。
      productCode: k8s-nginx-ingress
  # 添加采集配置
  config:
    # 定义输入插件
    inputs:
      # 使用service_docker_stdout插件采集容器内文本日志
      - Type: service_docker_stdout
        Stdout: true
        Stderr: true
        # 过滤目标容器,这里是容器label。
        IncludeLabel: 
          io.kubernetes.container.name: nginx-ingress-controller
    # 定义解析插件
    processors:
      - Type: processor_regex
        KeepSource: false
        Keys:
          - client_ip
          - x_forward_for
          - remote_user
          - time
          - method
          - url
          - version
          - status
          - body_bytes_sent
          - http_referer
          - http_user_agent
          - request_length
          - request_time
          - proxy_upstream_name
          - upstream_addr
          - upstream_response_length
          - upstream_response_time
          - upstream_status
          - req_id
          - host
          - proxy_alternative_upstream_name
        NoKeyError: true
        NoMatchError: true
        # 提取字段使用的正则表达式。符合该格式的日志,会将每个捕获组中内容映射到对应的字段上。
        Regex: ^(\S+)\s-\s\[([^]]+)]\s-\s(\S+)\s\[(\S+)\s\S+\s"(\w+)\s(\S+)\s([^"]+)"\s(\d+)\s(\d+)\s"([^"]*)"\s"([^"]*)"\s(\S+)\s(\S+)+\s\[([^]]*)]\s(\S+?(?:,\s\S+?)*)\s(\S+?(?:,\s\S+?)*)\s(\S+?(?:,\s\S+?)*)\s(\S+?(?:,\s\S+?)*)\s(\S+)\s*(\S*)\s*\[*([^]]*)\]*.*
        SourceKey: content
    # 定义输出插件
    flushers:
      # 使用flusher_sls插件输出到指定Logstore。
      - Type: flusher_sls
        Logstore: nginx-ingress
        Endpoint: <your-endpoint>
        Region: <your-region>
        TelemetryType: logs

这样,一个 ingress 解析配置就好了,结构非常清晰。

3.2. 想要跨地域、跨账号

首先,我们需要明确一点,就是数据采集依赖:

  • 数据源
  • 采集器
  • 采集配置

要做到跨地域和跨账号,不仅需要修改采集配置的生成端(alibaba-log-controller)的配置,也需要修改采集器侧(iLogtail)的配置。

下面我们举一个例子,来介绍我们的跨地域和跨账号能力。

我们假设数据源在 A 账号杭州地域,要投递到 B 账号的上海地域。

3.2.1. 修改采集侧配置

首先,需要修改 iLogtail 的启动参数。

logtail 的启动参数可以参考文档 [ 6] ,这里我们只关心 ilogtail_config.json 文件里面的两个参数:config_server_address 和 data_server_list。

  • config_server_address 指定了配置拉取的地址,logtail 通过这个地址拉取对应地域的采集配置。
  • data_server_list 指定了数据发送的地址,logtail 可以把数据发送到这些 region。

初始的启动参数文件只包含一个 region,就如文档里的:

图片

  1. 为了支持跨地域,我们需要做一些修改,加上上海的地域信息。修改后的配置如下:
{
    "config_server_address" : "http://logtail.cn-hangzhou.log.aliyuncs.com",
    "config_server_address_list": [
        "http://logtail.cn-shanghai.log.aliyuncs.com"
        "http://logtail.cn-hangzhou.log.aliyuncs.com"
    ],
    "data_server_list" :
    [
        {
            "cluster" : "cn-shanghai",
            "endpoint" : "cn-shanghai.log.aliyuncs.com"
        },
        {
            "cluster" : "cn-hangzhou",
            "endpoint" : "cn-hangzhou.log.aliyuncs.com"
        },
    ]
}
  1. 可以把这个文件保存到 configMap 中,挂载到 kube-system 命名空间下,名为logtail-ds 的 daemonset 里,容器内路径假设为 /etc/ilogtail/ilogtail_config.json

  2. 然后,在集群中,在 kube-system 命名空间下,找到名为 alibaba-log-configuration 的 configmap

  3. 编辑 log-ali-uid 的值,添加B账号的uid(多个账号之间使用半角逗号(,)相隔,例如 17397,12456)

  4. 编辑 log-config-path 的值,改为上面挂载的 /etc/ilogtail/ilogtail_config.json

  5. 记录下 log-machine-group 配置项的值

图片

  1. 重启 kube-system 命名空间下名为 logtail-ds 的 daemonset。

至此,iLogtail 就直接拉取上海地域的采集配置、发送数据到上海,并拥有了 B 账号的用户标识。

3.2.2. 修改 alibaba-log-controller 配置

alibaba-log-controller 的改动比较简单:

  1. 在 kube-system 命名空间下,找到名为 alibaba-log-controller 的 deployment。

  2. 添加环境变量 ALICLOUD_LOG_ACCOUNT_INFOS={"":{"accessKeyID":"<your_access_key_id>","accessKeySecret":"<your_access_key_secret>"}},这里的 uid 是 B 账号的,ak/sk 需要具备 SLS 相关的权限。

图片

  1. 重启 alibaba-log-controller

至此,alibaba-log-controller 就拥有了在 B 账号下创建 SLS 资源(logstore、采集配置等)的权限。

3.2.3. 创建 AliyunPipelineConfig CR

编辑 AliyunPipelineConfig 的 CR 是最简单的一步,只需要添加上 uid 和 endpoint 即可。不要忘记修改 flusher_sls 中的 endpoint 和 region。

apiVersion: telemetry.alibabacloud.com/v1alpha1
kind: ClusterAliyunPipelineConfig
metadata:
  name: k8s-nginx-ingress
spec:
  # 指定目标 project
  project:
    # B账号的project
    name: <your-project-name>
    # B账号的uid
    uid: <uid-user-b>
    # 目标endpoint
    endpoint: cn-shanghai.log.aliyuncs.com
  # 添加采集配置
  config:
    # 定义输入插件
    inputs:
      # 这里省略
      ...
    # 定义输出插件
    flushers:
      # 使用flusher_sls插件输出到指定Logstore。
      - Type: flusher_sls
        Logstore: nginx-ingress
        Endpoint: cn-shanghai.log.aliyuncs.com
        Region: cn-shanghai
        TelemetryType: logs

这样,采集配置就会创建在 B 账号的 project 下,数据也可以采集过来了。

3.3. 你可能会问:我那么多 AliyunLogConfig,怎么迁移到 AliyunPipelineConfig 啊?

还记得我们上面讲解 AliyunPipelineConfig 参数时,省略了一个吗?就是 enableUpgradeOverride!

当满足以下条件时,可以把 AliyunLogConfig 直接升级到 AliyunPipelineConfig:

  1. AliyunLogConfig 与 AliyunPipelineConfig 在同一集群内

    a. 如果不在同一集群,AliyunPipelineConfig 会因配置冲突而应用失败

  2. AliyunLogConfig 与 AliyunPipelineConfig 指向同一个采集配置:

    a. 目标 project 相同

    • AliyunLogConfig 中为集群默认的 project 或 spec.project

    • AliyunPipelineConfig 中为 spec.project.name

    b. 目标 iLogtail 采集配置名相同

    • AliyunLogConfig 中为 spec.logtailConfig.configName
    • AliyunPipelineConfig 中为 metadata.Name
  3. AliyunPipelineConfig 打开了 enableUpgradeOverride 开关

apiVersion: telemetry.alibabacloud.com/v1alpha1
kind: ClusterAliyunPipelineConfig
metadata:
  name: k8s-nginx-ingress
spec:
  # 只需要打开这个开关,就可以覆盖更新指向project:<your-project-name>、采集配置名为:k8s-nginx-ingress的AliyunLogConfig
  enableUpgradeOverride: true
  project:
    name: <your-project-name>
  config:
    inputs:
      ...
    flushers:
      ...

满足以上条件,我们的 CRD 管理器 alibaba-log-controller 就会执行以下操作:

  1. 应用 AliyunPipelineConfig,将原本的采集配置覆盖。

  2. 如果应用成功,删除已有的 AliyunLogConfig。

这样,AliyunLogConfig 就可以升级到 AliyunPipelineConfig 了。

总结

AliyunPipelineConfig 的介绍就到这里了,不知道你有没有会用了呢?

AliyunPipelineConfig 会先在“自建 K8s 集群部署日志组件 [ 6] ”上线,后续会正式登陆 ACK 等容器产品,欢迎大家使用并反馈意见,我们会虚心采纳和改正。相关链接:

[1] LogtailPipelineConfig

https://help.aliyun.com/zh/sls/developer-reference/api-sls-2020-12-30-struct-logtailpipelineconfig

[2] LogtailConfig

https://help.aliyun.com/zh/sls/developer-reference/api-sls-2020-12-30-struct-logtailconfig

[3] CreateLogtailPipelineConfig

https://help.aliyun.com/zh/sls/developer-reference/api-sls-2020-12-30-createlogtailpipelineconfig

[4] CreateLogstore

https://help.aliyun.com/zh/sls/developer-reference/api-sls-2020-12-30-createlogstore

[5] 文档

https://help.aliyun.com/zh/ack/ack-managed-and-ack-dedicated/user-guide/analyze-and-monitor-the-access-log-of-nginx-ingress?spm=a2c4g.11186623.0.i33#e73d30b45c8rw

[6] 文档

https://help.aliyun.com/zh/sls/user-guide/logtail-configuration-files-and-record-files?spm=a2c4g.11186623.0.0.282e8a80VCedLM

标签:name,配置,project,采集,玩转,CRD,AliyunPipelineConfig,log
From: https://www.cnblogs.com/alisystemsoftware/p/18345741

相关文章

  • 免费领取云主机,在华为开发者空间玩转YOLOV3
    摘要:YOLOv3(YouOnlyLookOnceversion3)是一种高效的目标检测算法,旨在实现快速而准确的对象检测。本文分享自华为云社区《华为云开发者云主机体验【玩转华为云】》,作者:DS小龙哥。一、前言云主机是华为云为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具体系,让每......
  • 使用 C# 和 ONNX 來玩转Phi-3 SLM
    LLM席卷世界刷新AI的认知之后,由于LLM需要的硬件要求实在太高,很难在普通设备上运行,因此SLM逐漸受到重視,Phi-3SLM是由Microsoft所开发的模型,可以在你的电脑、手机等设备来运行,小型语言模型(SLM)和ONNX的结合改变了AI互操作性的游戏规则。让我们展示如何在使用C#和......
  • 玩转微信公众号变现:从新手到专家的全攻略
    个人名片......
  • 区块链入门基础课:《Nethereum教程》零基础玩转以太坊开发(三)合约状态
    今天我们要讨论的是如何与智能合约进行交互,获取合约状态。下面的示例将会详细讲解如何与合约进行交互,及一些概念性的解释,有需要的朋友们可以收藏一下。一:概念解释在下面示例之前呢,我先解释下为什么需要调用合约状态,以及合约状态对开发而言有什么作用。实时的了解合约状......
  • 支撑英雄联盟750万同时在线用户的聊天系统底层的CRDT是什么?
    CRDT是什么意思?CRDT是Conflict-FreeReplicatedDataTypes的缩写,直译的话即“无冲突可复制数据类型”。翻译过来还是一脸懵逼!用稍微通俗一点的话说:研究分布式系统,尤其是研究最终一致性分布式系统的过程中,一个最基本的问题就是,应该采用什么样的数据结构来保证最终一致性?CR......
  • Python基础教程(入门教程),30分钟玩转Python编程!
    这是一篇针对初学者的 Python基础教程,只要你认真阅读,花费30分钟即可快速了解Python。这篇Python入门教程讲解的知识点包括:Python编程环境的搭建、Python基本操作入门、Python数据类型、Python语句和函数。Python环境下载和配置根据Windows版本(64位/32位)从Pyt......
  • 每天五分钟玩转深度学习框架PyTorch:选择函数where和gather
    本文重点如图表所示,这几个方法可以理解为索引函数,有些函数在切片和索引一章进行了简单的介绍,本文将再次进行介绍,温故知新。index_select通过特殊的索引来获取数据index_select,这个这样来理解,第一个参数表示a的第几维度,第二个参数表示获取该维度的哪部分。我们把16,3,28,28看......
  • LLaMA-Factory 大模型微调超简单,从零开始开始玩转大模型微调
    目录LLaMA-Factory大模型微调超简单,从零开始开始玩转大模型微调为什么要使用LLaMA-Factory进行微调?如何使用LLaMA-Factory进行微调?安装启动数据准备Alpaca格式指令监督微调数据集预训练数据集开始微调模型评估对话测试模型导出为什么要使用LLaMA-Factory进行......
  • 手把手教你玩转ESP8266(原理+驱动)
    在嵌入式开发中,无线通信的方式有很多,其中WIFI是绕不开的话题。说到WIFI通信,就不得不提ESP8266了。ESP8266是一款高性能的WIFI串口模块,实现透明传输。只要有一定的串口知识,不需要知道WIFI原理就可以上手,在业内应用广泛。1.源码下载STM32F103C8T6模板工程链接:https......
  • 书生浦语夏令营——8G 显存玩转书生大模型 Demo
    书生浦语夏令营——8G显存玩转书生大模型Demo配置环境按照教程来即可condacreate-ndemopython=3.10-ycondaactivatedemocondainstallpytorch==2.1.2torchvision==0.16.2torchaudio==2.1.2pytorch-cuda=12.1-cpytorch-cnvidia-y#这里合并成一个命令pip......