首页 > 数据库 >prometheus 监控 hadoop + Hbase + zookeeper + mysql exporter

prometheus 监控 hadoop + Hbase + zookeeper + mysql exporter

时间:2023-06-21 15:34:05浏览次数:58  
标签:10.0 jmx exporter zookeeper hadoop HADOOP prometheus OPTS

1. run JMX exporter as a java agent with all the four daemons. For this I have added EXTRA_JAVA_OPTS in hadoop-env.sh and yarn-env.sh :

[root@cloud01 hadoop]# cat yarn-env.sh |egrep -v '^$|#'
export YARN_RESOURCEMANAGER_OPTS="$YARN_RESOURCEMANAGER_OPTS -javaagent:/home/ec2-user/jmx_exporter/jmx_prometheus_javaagent-0.3.1.jar=9104:/home/ec2-user/jmx_exporter/prometheus_config.yml"
export YARN_NODEMANAGER_OPTS="$YARN_NODEMANAGER_OPTS -javaagent:/home/ec2-user/jmx_exporter/jmx_prometheus_javaagent-0.3.1.jar=9105:/home/ec2-user/jmx_exporter/prometheus_config.yml"

[root@do1cloud01 hadoop]# cat hadoop-env.sh |egrep -v '^$|#'
JAVA_HOME=/do1cloud/jdk1.8.0_151
export HADOOP_OS_TYPE=${HADOOP_OS_TYPE:-$(uname -s)}
case ${HADOOP_OS_TYPE} in
Darwin*)
export HADOOP_OPTS="${HADOOP_OPTS} -Djava.security.krb5.realm= "
export HADOOP_OPTS="${HADOOP_OPTS} -Djava.security.krb5.kdc= "
export HADOOP_OPTS="${HADOOP_OPTS} -Djava.security.krb5.conf= "
;;
esac
export HADOOP_NAMENODE_OPTS="$HADOOP_NAMENODE_OPTS -javaagent:/home/ec2-user/jmx_exporter/jmx_prometheus_javaagent-0.3.1.jar=9102:/home/ec2-user/jmx_exporter/prometheus_config.yml"
export HADOOP_DATANODE_OPTS="$HADOOP_DATANODE_OPTS -javaagent:/home/ec2-user/jmx_exporter/jmx_prometheus_javaagent-0.3.1.jar=9103:/home/ec2-user/jmx_exporter/prometheus_config.yml"

2.prometheus的配置

[root@do1cloud03 prometheus]# cat prometheus.yml|egrep -v '^$|#'
global:
rule_files:
   - "rules/cpu2mem.yml"
scrape_configs:
  - job_name: 'federate'
    scrape_interval: 10s
    honor_labels: true
    metrics_path: '/federate'
    params:
      'match[]':
         - '{job=~".+"}'

 

#hadoop
  - job_name: 'YARN_RESOURCEMANAGER'
    static_configs:
      - targets: ['10.0.0.99:9104','10.0.0.65:9104','10.0.0.77:9104']
    
  - job_name: 'YARN_NODEMANAGER'
    static_configs:
      - targets: ['10.0.0.99:9105','10.0.0.65:9105','10.0.0.77:9105']
  - job_name: 'HADOOP_NAMENODE'
    static_configs:
      - targets: ['10.0.0.99:9102','10.0.0.65:9102','10.0.0.77:9102']
  - job_name: 'HADOOP_DATANODE'
    static_configs:
      - targets: ['10.0.0.99:9103','10.0.0.65:9103','10.0.0.77:9103']
#hbase 
  - job_name: 'hbase'
    static_configs:
      - targets: ['10.0.0.99:7000']
        labels:
           instance: 99_7000
      - targets: ['10.0.0.65:7000']
        labels:
           instance: 65_7000
      - targets: ['10.0.0.77:7000']
        labels:
           instance: 77_7000

 

 

3.jar的配置文件

[root@do1cloud02 jmx_exporter]# cat /home/ec2-user/jmx_exporter/prometheus_config.yml
#rules:
# - pattern: Hadoop<service=ResourceManager, name=MetricsSystem, sub=Stats><>NumAllSources
#   name: sources
#   labels:
#    app_id: "hadoop_rm"
---
rules:
 - pattern: '.*'

 --------------------------------------------------------------------------------------------------

4.hbase的监控

[root@do1cloud01 conf]# cat hbase-env.sh  |egrep -v '^$|#'
export JAVA_HOME=/do1cloud/jdk1.8.0_151
export HBASE_CLASSPATH=/do1cloud/hadoop-3.0.3/etc/hadoop
export HBASE_MANAGES_ZK=false
export HBASE_OPTS="$HBASE_OPTS -XX:+UseConcMarkSweepGC"
HBASE_OPTS="$HBASE_OPTS -javaagent:/path/jmx_prometheus_javaagent-0.9.jar=7000:/path/hbase_jmx_config.yaml"
#再hbase启动后注释掉,再hbase shell

5.yaml文件内容

/path/hbase_jmx_config.yaml
---
rules:
 - pattern: '.*'

 参考:https://blog.godatadriven.com/hbase-prometheus-monitoring

用一个例子来演示会更加清晰



标签:10.0,jmx,exporter,zookeeper,hadoop,HADOOP,prometheus,OPTS
From: https://blog.51cto.com/u_13747193/6528849

相关文章

  • Java学习之注册中心Zookeeper
    Zookeeper是什么ZooKeeper是一个用于维护配置信息、命名、提供分布式同步和提供组服务的集中式服务,它常作为一个注册中心服务用于分布式项目。Zookeeper拥有以下几个重要特性顺序一致性:来自客户端的相关指令会按照顺序执行,不会出现乱序的情况,客户端发送到服务的指令1->2->3->4,......
  • hadoop常用命令小锦囊
    Hadoop是什么?Hadoop是一个由Apache开发的开源分布式计算框架,它能够处理大规模数据并行处理任务,支持大规模数据存储和处理。Hadoop的核心组件包括分布式文件系统HDFS和分布式计算框架MapReduce,它们使得Hadoop可以在廉价的硬件上并行地处理大量数据。Hadoop还包括很多相关的项目和子......
  • Hadoop第一弹
    Hadoop是什么?Hadoop是一个由Apache开发的开源分布式计算框架,它能够处理大规模数据并行处理任务,支持大规模数据存储和处理。Hadoop的核心组件包括分布式文件系统HDFS和分布式计算框架MapReduce,它们使得Hadoop可以在廉价的硬件上并行地处理大量数据。Hadoop还包括很多相关的项目和子......
  • Hadoop学习之路
    Hadoop是什么?Hadoop是一个由Apache开发的开源分布式计算框架,它能够处理大规模数据并行处理任务,支持大规模数据存储和处理。Hadoop的核心组件包括分布式文件系统HDFS和分布式计算框架MapReduce,它们使得Hadoop可以在廉价的硬件上并行地处理大量数据。Hadoop还包括很多相关的项目和子......
  • 史上最全Hadoop面试题:尼恩大数据面试宝典专题1
    文章且持续更新,建议收藏起来,慢慢读!疯狂创客圈总目录博客园版为您奉上珍贵的学习资源:免费赠送:《尼恩Java面试宝典》持续更新+史上最全+面试必备2000页+面试必备+大厂必备+涨薪必备免费赠送:《尼恩技术圣经+高并发系列PDF》,帮你实现技术自由,完成职业升级,薪酬猛......
  • 使用 JMX-Exporter 监控 Kafka 和 Zookeeper
    JVM默认会通过JMX的方式暴露基础指标,很多中间件也会通过JMX的方式暴露业务指标,比如Kafka、Zookeeper、ActiveMQ、Cassandra、Spark、Tomcat、Flink等等。掌握了JMX监控方式,就掌握了一批程序的监控方式。本节介绍JMX-Exporter的使用,利用JMX-Exporter把JMX监控数据......
  • 02-Hadoop集群搭建
    1.集群配置1.1集群部署规划资源上有抢夺冲突的,尽量不要部署在一起;工作上需要互相配合的,尽量部署在一起。\Hadoop102Hadoop103Hadoop104HDFSNameNode&DataNodeDataNode2rdNameNode&DataNodeYARNNodeManagerResourceManager&NodeManagerNodeManag......
  • 01-Hadoop概述
    1.大数据1.1概述指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。大数据主要解决,海量数据的采集、存储和分析计算问题。按顺序给出数据存储单位......
  • docker 安装zookeeper(单机版)
    Docker安装ZK查看本地镜像和检索拉取Zookeeper镜像#查看本地镜像dockerimages#检索ZooKeeper镜像dockersearchzookeeper#拉取ZooKeeper镜像最新版本dockerpullzookeeper:latest#我使用的版本dockerpullzookeeper:3.5.7 创建ZooKeeper挂载目录(数据挂载......
  • centos7-docker安装与配置kafka+zookeeper+kafkamanager
    一、默认docker环境已经OK拉镜像dockerpullwurstmeister/zookeeperdockerpullwurstmeister/kafkadockerpullsheepkiller/kafka-manager删镜像dockerrmi+镜像id查看镜像[root@build-science-system-services-03~]#dockerimages二、运行相关容器启动zookeeper:......