首页 > 其他分享 >解决k8s集群中opensearch服务CrashLoopBackOff的问题

解决k8s集群中opensearch服务CrashLoopBackOff的问题

时间:2023-09-18 16:26:07浏览次数:56  
标签:count opensearch cluster max vm 262144 CrashLoopBackOff k8s

1. 前言

我使用的k8s版本是1.23.6,前面安装了Kubesphere可视化组件,然后开始的时候没有启用日志模块,而是在安装Kubesphere后启用日志系统(参考在安装后启用日志系统),安装一切正常,但是安装后验证,就出现opensearch-cluster-master-x和opensearch-cluster-data-x这些pod都是CrashLoopBackOff的状态,看日志,显示报错如下:

 ERROR: [1] bootstrap checks failed
 [1]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
 ERROR: OpenSearch did not exit normally - check the logs at /usr/share/opensearch/logs/opensearch-cluster.log

目测是虚拟内存的问题。

2. 解决

这些pod都是由有状态服务(statefulset)启动的,分别为:

  • opensearch-cluster-data
  • opensearch-cluster-master

使用Kubesphere或者命令进行编辑:

kubectl edit sts opensearch-cluster-data -n kubesphere-logging-system

找到initContainers,并增加一个新的initc:

        - name: sysctl
          image: 'busybox:latest'
          command:
            - sh
            - '-c'
            - sysctl -w vm.max_map_count=262144
          resources: {}
          terminationMessagePath: /dev/termination-log
          terminationMessagePolicy: File
          imagePullPolicy: IfNotPresent
          securityContext:
            privileged: true
            runAsUser: 0

将startupProbe的initialDelaySeconds改为30。

同样对opensearch-cluster-master也进行同样的操作,然后重新创建就可以了。

3. 参考

[1] Elasticsearch: Max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]

[2] max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]

(完)

标签:count,opensearch,cluster,max,vm,262144,CrashLoopBackOff,k8s
From: https://www.cnblogs.com/harrymore/p/17712284.html

相关文章

  • 在k8s中,如果要启用API聚合功能,需要配置哪些参数?
    为了能够将用户自定义的API注册到master的apiserver上,需要在kube-apiserver服务中,启用下面的参数: --proxy-client-cert-file=/etc/kubernetes/pki/front-proxy-client.crt--proxy-client-key-file=/etc/kubernetes/pki/front-proxy-client.key--requestheader-allowed-na......
  • k8s之docker基础+部署
    docker基础+部署1、docker基础概念1、统一标准应用构建程序打包dockerbuild...images应用分享镜像存放仓库dockerhub应用运行统一镜像dockerrun容器化2、资源隔离cpu、内存资源隔离网络隔离用户、用户组隔离...2、架构docker_host安......
  • K8S运维必备排查手册
      一、Pod相关问题及排查 1.Pod无法启动,如何查找原因? 使用kubectldescribepod[pod_name]-n[namespace_name]命令查看该Pod的状态信息,检查容器的状态和事件信息,判断是否出现问题。使用kubectllogs[pod_name]-n[namespace_name]命令查看该Pod容器的......
  • keycloak k8s 多副本
    keycloak k8s 多副本apiVersion:v1kind:Servicemetadata:name:keycloaklabels:app:keycloakspec:ports:-name:http5port:8084targetPort:8080selector:app:keycloakclusterIP:None---apiVersion:apps/v1kind:......
  • K8S你学废了么5——Secret与downloadAPI
    一、背景介绍前面介绍的k8s中的pv存储卷与cm存储卷,k8s中还有2中特殊的存储卷:secret和downloadAPI。其作用分别是用来存放敏感信息和将pod中的信息暴漏给pod中运行的代码,这也是k8s中经常会用到的两个存储卷,下面就这两个存储卷展开详细说明。二、Secret存储卷尽管configMap资源也可以......
  • k8s之认证文件失效,导致kubelet无法正常启动
     报错:failedtorunKubelet:unabletoloadbootstrapkubeconfig:stat/etc/kubernetes/bootstrap-kubelet.conf:nosuchfileordirectory解决:#备份并重新生成证书cd/etc/kubernetes/pki/mkdirbackupmvapiserver.crtapiserver-etcd-client.keyapiserver-kub......
  • k8s安装Dashboard出现了 pod 状态为CrashLoopBackOff
    1、问题现象2、解决办法(1)先看一下pods日志信息kubectllogs-f-nkubernetes-dashboardkubernetes-dashboard-658485d5c7-h75rs(2)错误信息:Get"https://10.96.0.1:443/api/v1/namespaces/kubernetes-dashboard/secrets/kubernetes-dashboard-csrf":dialtcp10.9......
  • k8s限速队列
    channel问题channel是go协程间通信的主要方式。channel预设容量,很难评估,不支持动态扩容。k8s的client-go提供了基于切片的线程安全的并发队列,解耦生产者与消费者,提供了去重、限速、重试加入队列等功能。k8scontroller处理事件官方例子生产者//创建一个workqueuequeue:=w......
  • k8s controller选主
    controller选主代码实现controller多实例可能状态1抢锁成功,作为Leader跑业务2抢锁失败等待3释放锁,结束k8s官方例子go.mod和主流程modulecontroller-by-leader-electiongo1.19require( github.com/google/uuidv1.3.0 k8s.io/apimachineryv0.28.2 k8s.io/client-g......
  • 【Kubernets】K8s群集安装部署详细教程-(3)安装过程中的错误解决
    k8s常用命令集合k8s常用命令集合:#查看当前集群的所有的节点kubectlgetnode#显示Node的详细信息(一般用不着)kubectldescribenodenode1#查看所有的podkubectlgetpod--all-namespaces#查看pod的详细信息kubectlgetpods-owide--all-namespaces#查看所有创......