首页 > 其他分享 >让 K8s 更简单!8款你不得不知的 AI 工具-Part 1

让 K8s 更简单!8款你不得不知的 AI 工具-Part 1

时间:2024-01-15 11:13:53浏览次数:33  
标签:kubectl Kubernetes AI nginx Part OpenAI deployment K8s

介绍

最近,AI 引起了广泛关注,而 Kubernetes 驱动的 DevOps 也不例外。软件工程师是自动化的忠实拥护者,因此针对 Kubernetes 操作员的 AI 驱动工具自然也开始涌现。

 

这些工具大多专为终端 (CLI) 使用而设计。Kubernetes 是容器编排的首选平台,而在 AI 驱动工具的帮助下可以从自动化任务、提高可靠性和提供洞察力等方面来帮助您更好掌握它。

 

OpenAI 是 Kubernetes AIOps 最有前途的 AI 平台之一。它提供了一套开源工具,可用于为 Kubernetes 构建 AI 驱动的解决方案。我们将分成两个 parts 来探讨 OpenAI 的一些开源工具如何帮助您实现 Kubernetes AIOps。

 

概述

Kubernetes 用户不可避免地会遇到一些需要调试和修复的集群问题,以保证其 pod 和服务顺利运行。尤其是云端原生的DevOps 可能在管理容器、微服务和自动扩展功能方面涉及很多复杂问题。GenAI 可以帮助排除故障,并执行一些与 Kubernetes 等平台相关的操作任务。这可能涉及使用自然语言提示来启动、回滚或获取集群的可见性。

 

例如,在 KubeCon + CloudNativeCon 2023 大会上,Kubiya 首次展示了一个生成式 AI 工作流引擎,它能够在 Slack 中解释此类命令。扩展自然语言处理功能可以帮助平台团队创建新的工作流程,从而抽象出云端原生平台工作的复杂性。

 

K8sGPT

K8sGPT 是一个相对较新的开源项目,它使用 AI 模型来解释 Kubernetes 的错误信息并提供集群见解。它已被两个组织用于生产,并已申请成为 CNCF 沙盒项目。

 

其主要功能有:

 

  • 提供 Kubernetes 错误信息的详细情境解释
  • 提供集群洞察
  • 支持多种安装选项
  • 支持不同的 AI 后端

 

K8sGPT 的项目由是同类 CLI 工具中最知名、使用最广泛的一个,其主要命令是 k8sgpt analyze旨在揭示 Kubernetes 集群中的问题。它通过使用 analyzers 来做到这一点。这种 analyzers 定义了每个 Kubernetes 对象的逻辑以及可能遇到的问题。例如,Kubernetes Services 的 analyzers 会检查特定 Services 是否存在、是否有端点,以及端点是否准备就绪。

 

更厉害的在于当您要求 K8sgpt 解释能做些什么——为此,需要运行 k8sgpt analyze --explain 命令。这将要求 AI 为您的具体情况提供说明,并显示出来。这些说明包括排除故障的操作以及具体的 kubectl 命令,您只需复制和粘贴这些命令即可执行。而之所以能做到这一点,是因为 Kubernetes 资源的名称已经就位了。

 

640.gif

 

安装

根据您的偏好和操作系统,有多种安装选项可供选择。您可以在文档的安装部分找到不同的选项。安装 K8sGPT 的前提条件是在 Mac 上安装 Homebrew 或在 Windows 机器上安装 WSL。

 

接下来,您可以运行以下命令:

 

brew tap k8sgpt-ai/k8sgpt 
brew install k8sgpt

 

如要查看 K8sGPT 提供的所有命令,请使用 - help 标志:

 

k8sgpt --help

 

前提条件

后续步骤的前提条件是拥有一个 OpneAI 账户和一个正在运行的 Kubernetes 集群;任何集群,比如 microk8s 或 minikube 都足够了。

 

有了 OpneAI 账户后,您需要去其网站生成一个新的 API 密钥

 

或者,你也可以运行以下命令,K8sGPT 会在你的默认浏览器中打开相同的网站:

 

k8sgpt generate

 

K8sGPT 与 OpenAI 交互时需要此密钥。使用新创建的 API 密钥/令牌授权 K8sGPT:

 

k8sgpt auth add openai 
Enter openai Key: openai added to the AI backend provider list

 

您可以使用以下命令列出您的后端:

 

k8sgpt auth list
Default: 
> openai 
Active: 
> openai 
Unused: 
> localai 
> azureopenai 
> noopai

 

其次,我们将在 Kubernetes 集群中安装恶意部署。该 pod 将进入 CrashLoopBackOff。下面是 YAML:

 

apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-deployment
  labels:
    app: nginx
spec:
  replicas: 3
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx:1.14.2
        ports:
        - containerPort: 80
        securityContext:
          readOnlyRootFilesystem: true

 

接下来,我们将为示例应用程序创建一个专用命名空间,并安装 Deployment:

 

kubectl create ns demo 
namespace/demo created
kubectl apply -f ./deployment.yaml -n demo
deployment.apps/nginx-deployment created

 

现在,您将看到演示命名空间中的 pod 标明错误:

 

6401.png

 

如果我们想查看其中一个 pod 的事件,就会显示:

 

Warning  BackOff        3s (x8 over 87s)  kubelet                Back-off restarting failed container

 

因此,我们可以运行 K8sGPT 命令来获取更多有关这些 pod 出错原因的详细信息:

 

k8sgpt analyse

 

这将显示 K8sGPT 在集群中发现的问题:

 

AI Provider: openai

 

若想要获得更多信息以及如何解决问题的建议,我们则可以使用 --explain 标志:

 

k8sgpt analyse --explain
0 demo/nginx-deployment-5f4c7db77b-hq74n(Deployment/nginx-deployment)
- Error: back-off 1m20s restarting failed container=nginx pod=nginx-deployment-5f4c7db77b-hq74n_demo(7854b793-21b7-4f81-86e5-dbb4113f64f4)
1 demo/nginx-deployment-5f4c7db77b-phbq8(Deployment/nginx-deployment)
- Error: back-off 1m20s restarting failed container=nginx pod=nginx-deployment-5f4c7db77b-phbq8_demo(74038531-e362-45a6-a436-cf1a6ea46d8a)
2 demo/nginx-deployment-5f4c7db77b-shkw6(Deployment/nginx-deployment)
- Error: back-off 1m20s restarting failed container=nginx pod=nginx-deployment-5f4c7db77b-shkw6_demo(2603f332-3e1c-45da-8080-e34dd6d956ad)

 

kubectl-ai

该项目是一个 kubectl 插件,基于 GTP 生成和应用 Kubernetes Manifests 去生成和应用 Kubernetes 清单。为让其更有趣并以可视化的方式理解,我们将利用 Kubectl + OpenAI。

 

安装

Homebrew:添加到 brew tap 并安装

 

brew tap sozercan/kubectl-ai https://github.com/sozercan/kubectl-ai
brew install kubectl-ai

 

Krew:添加到 krew index再使用

 

kubectl krew index add kubectl-ai https://github.com/sozercan/kubectl-aikubectl 
krew install kubectl-ai/kubectl-ai

 

前提条件

kubectl-ai 需要有效的 Kubernetes 配置和以下条件之一:

 

  • OpenAI API 密钥
  • Azure OpenAI 服务 API 密钥和端点
  • LocalAI

 

对于这些工具,可以使用以下环境变量:

 

export OPENAI_API_KEY=<your OpenAI key>
export OPENAI_DEPLOYMENT_NAME=<your OpenAI deployment/model name. defaults to "gpt-3.5-turbo-0301">
export OPENAI_ENDPOINT=<your OpenAI endpoint, like "https://my-aoi-endpoint.openai.azure.com" or "http://localhost:8080/v1">

 

如果设置了 OPENAI_ENDPOINT 变量,则将使用端点。否则,将使用 OpenAI API。

 

Azure OpenAI 服务不允许在部署名称中使用某些字符,如.。因此,对于 Azure,kubectl-ai 会自动将 gpt-3.5-turbo 替换为 gpt-35-turbo。但是,如果使用的 Azure OpenAI 部署名称与模型名称完全不同,可以设置 AZURE_OPENAI_MAP 环境变量,将模型名称映射到 Azure OpenAI 部署名称。例如:

 

export AZURE_OPENAI_MAP="gpt-3.5-turbo=my-deployment"

 

演示

Nginx Pod 的命令

 

kubectl ai "create an nginx pod"

kubectl ai "create an nginx pod"
✨ Attempting to apply the following manifest:
apiVersion: v1
kind: Pod
metadata:
  name: nginx-pod
spec:
  containers:
  - name: nginx
    image: nginx
    ports:
    - containerPort: 80
Use the arrow keys to navigate: ↓ ↑ → ← 
? Would you like to apply this? [Reprompt/Apply/Don't Apply]: 
+   Reprompt
  ▸ Apply
    Don't Apply

 

Deployment:选择 "Reprompt" 并输入 "make this into deployment"

 

Reprompt: make this into deployment
✨ Attempting to apply the following manifest:
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-deployment
spec:
  replicas: 1
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx:1.7.9
        ports:
        - containerPort: 80

 

ReplicaSet

 

Reprompt: Scale to 3 replicas
Reprompt: Scale to 3 replicas
✨ Attempting to apply the following manifest:
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-deployment
spec:
  replicas: 3
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx
        ports:
        - containerPort: 80

 

KoPylot

 

KoPylot 是一款由 AI 驱动的开源 Kubernetes 助手。其目标是帮助开发人员和 DevOps 工程师轻松管理和监控 Kubernetes 集群

 

功能

 

在当前版本中,KoPylot 有四个主要功能。这些功能可以转化为 kopylot CLI 的子命令。这些子命令是 Audit, Chat, Diagnose 和 Ctl 。现在让我们深入了解一下这些命令。

 

6402.png

 

Audit:Audit 资源,例如 pod、部署和服务。KoPylot 会根据单个资源的清单文件查找漏洞。

 
6403.png

 

Chat:用简单的英语询问 KoPylot 以生成 kubectl 命令。在运行命令之前,您可以查看命令。

 

6404.png

 

Diagnose:您可以使用诊断工具来帮助您调试应用程序的不同组件。诊断命令会为您列出损坏资源的可能修复方法。

 

6405.png

 

Ctl:kubectl 的包装器。传递给 ctl 子命令的所有参数都由 kubectl 解释。

 

6406.png

 

运行原理

目前,KoPylot 的工作方式是从 Kubernetes 资源描述(kubectl describe ...)或清单中提取信息,并将其与提示一起输入 OpenAI 的 Davinci 模型。提示告诉模型如何处理 Kubernetes 资源。

 

提示还负责指导模型如何构建输出。例如,用于 Audit 命令的提示符要求模型将结果输出为包含漏洞及其严重程度的双列 JSON。

 

路线图的目标之一是用内部托管模型取代 OpenAI 模型。这将解决向 OpenAI 服务器发送潜在敏感数据的问题。

 

您可以按以下步骤使用 KoPylot:

 

  • 向 OpenAI 申请一个 API 密钥。
  • 使用以下命令导出密钥
export KOPYLOT_AUTH_TOKEN=
  • 使用 pip 安装 Kopylot:
pip install kopylot
  • 运行 Kopylot
kopylot --help

 

总的来说,KoPylot 是诊断 Kubernetes 工作负载并排除故障的有用工具。它基于网络的聊天界面和 CLI 使其易于使用,适合所有级别的用户

 

Kopilot

Kopilot 是这些项目中唯一一个用 Go 编写的项目。它包括两个功能:故障排除和审计。

 

安装

macOS

 

brew install knight42/tap/kopilot

 

Krew:

 

kubectl krew install kopilot

 

目前,您需要设置两个 ENV 才能运行 Kopilot:

 

  • 设置 KOPILOT_TOKEN 以指定令牌。
  • 设置 KOPILOT_LANG 以指定语言,默认为 English。有效选项包括 ChineseFrenchSpain 等。

 

优势

  • 诊断集群中任何不健康的工作负载,并告诉您原因

 

640 (1).gif

 

  • Audit Kubernetes 资源并查找安全错误配置

 

640 (2).gif

 

想象一下,当您的 Pod 被卡或在 PendingCrashLoopBackOff 的状态时,kopilot diagnose 的命令就会派上用场了。它或将向 AI 寻求帮助,并将结论展示出来,其中还包括可能的原因解释。

 

6407.png

 

并且,kopilot audit命令采用了类似的方法,能根据众所周知的优秀实践和可能的安全错误配置进行检查。该工具将使用您的 OpenAI API 令牌和您选择的语言来回答问题。

640 (2).gif 

本篇 Part 1 主要介绍了 K8sGPT、kubectl-ai、KoPylot 和 Kopilot 四款 AI 工具,后续的 Part 2 会延续并介绍更多的工具内容,帮助您简化 K8s 的使用过程,敬请期待!

标签:kubectl,Kubernetes,AI,nginx,Part,OpenAI,deployment,K8s
From: https://www.cnblogs.com/sealio/p/17964977

相关文章

  • AI 图像自动补全 Uncrop 工具介绍
    ClipDropUncrop是一款基于AI的图像自动补全工具,由StabilityAI旗下的Clipdrop开发。通过利用StableDiffusionXL开发的算法和深度学习技术,Uncrop可以对用户上传的图片进行自动扩展和补全,改变图片尺寸,使得图像内容得到更完整的呈现。用户只需要上传需要补全的图片,选择想要的尺寸,Un......
  • .NET Conf China 2023分享-.NET应用国际化-AIGC智能翻译+代码生成
    今年.NETConfChina2023技术大会,我给大家分享了.NET应用国际化-AIGC智能翻译+代码生成的议题,今天整理成博客,分享给所有人。随着疫情的消退,越来越多的企业开始向海外拓展,应用系统的国际化和本地化是一个巨大的技术挑战,我们今天重点探讨以下内容:.NET应用如何实现国际化?不仅仅......
  • LlamaIndex中的CustomLLM(本地加载模型)
      LlamaIndex中接口基本上调用的是OpenAI,如果想想调用自定义模型可以吗?答案当然是可以的。经过查找找到了自定义大语言模型的简单抽象基类classCustomLLM(LLM)。一.CustomLLM(LLM)源码  只要子类必须实现__init__、_complete、_stream_complete和metadata方法即可......
  • LlamaIndex中的CustomLLM(在线加载模型)
    一.使用Flask将模型封装为REST接口  主要是将complete()和stream_complete()方法封装为REST接口,如下所示:from flask import Flask, request, jsonifyfrom transformers import AutoTokenizer, AutoModelForCausalLMapp = Flask(__name__)class QwenModel:......
  • TinyGPT-V:2.8B参数引领轻量级多模态AI
    前言在当前多模态大型语言模型(MLLM)快速发展的背景下,TinyGPT-V的出现标志着一个重要的技术突破。这款轻量级模型以其2.8B参数的设计,在AI领域引起广泛关注,成为GPT-4V等模型的高效替代方案。Huggingface模型下载:https://huggingface.co/Tyrannosaurus/TinyGPT-VAI快站模型免费加速下载......
  • 人人都会Kubernetes(一):告别手写K8s yaml,运维效率提升500%
    1.Kubernetes的普及和重要性随着云计算的迅速发展,容器化技术已成为构建和运行分布式应用程序的关键。而Kubernetes作为容器编排领域的佼佼者,已经成为了云原生应用的标准。它不仅简化了应用程序的部署和管理,而且为开发者和运维人员提供了一套全面的工具集,从容器编排、自动扩缩容、......
  • 使用腾讯AIDesign的设计LOGO
         腾讯AIDesign免费开放全部功能,支持logo的智能设计、调优、VI生成、下载。推广期间,每个用户每日可免费下载10款logo及其衍生品,可下载内容包括:高清无水印的彩色logo图片、标准墨稿、标准反色稿、名片设计稿。     我们抱着试试,输入chinacreator字符,生成一些LOGO试......
  • k8s教程----零基础快速入门
    k8s详解教程----零基础快速入门前言:Kubernetes(k8s)作为云原生的核心平台,吸引了越来越多的运维、开发、测试以及其他技术员去了解学习。随着行业越来越内卷,k8s已经被广泛使用,作为一名运维人员,k8s将成为一个必须掌握的技术点,同时,我们也可以依靠它跳槽涨薪。一、什么是K8s它前......
  • Text Intelligence - TextIn.com AI时代下的智能文档识别、处理、转换
    一、智能文档处理介绍在AI时代,智能文档处理技术正变得越来越重要。它包括了智能文字识别(OCR)、智能文档信息抽取、文档图像处理以及文档转换等多个方面。这些技术共同构成了现代信息处理的核心,广泛应用于数据分析、自动化办公、数字化存档以及更多其他领域。智能文字识别(OCR)智......
  • k8s搭建部署(超详细)
    简介Kubernetes是Google2014年创建管理的,是Google10多年大规模容器管理技术Borg的开源版本。它是容器集群管理系统,是一个开源的平台,可以实现容器集群的自动化部署、自动扩缩容、维护等功能。通过Kubernetes你可以:快速部署应用快速扩展应用无缝对接新的应用功能节省资源,......