首页 > 其他分享 >Hbase 测试工具

Hbase 测试工具

时间:2022-09-20 20:24:28浏览次数:55  
标签:20 -- counter wrk 测试工具 Hbase hbase

这篇文章主要介绍两种测试hbase的工具和部分参数

wrk压力测试工具

    WRK压力测试工具,这种方式可以测试前端的接口一起测试
    但是瓶颈也是前端的java接口,没有办法知道hbase真正的水平
    -t, --threads     <N>  使用多少个线程进行压测   
    -c, --connections <N>  跟服务器建立并保持的TCP连接数量  
    -d, --duration    <T>  压测时间           
    -s, --script      <S>  指定Lua脚本路径     

./wrk -t16 -c500 -d 300s --latency -s data.lua url

loginmap = {}
counter = 0
function init(args)
    for line in io.lines("./idlist.csv") do
        loginmap[counter] = line
        counter = counter + 1
    end
    counter = 0
end

request = function()
        counter = counter+1
          if( counter > 0 )
          then   
             data = '{"gaid":"%s"}'
             parms = loginmap[counter-1]
             wrk.method = "POST"
             wrk.headers["Content-Type"] = "application/json"
             wrk.headers["X-Authorization"] = "Authorization"
             wrk.body = string.format(data,tostring(parms))
             print(wrk.format())
             return wrk.format()
         end
end

hbase pe

hbase预分区语句
create 'student','info',SPLITS =>
['00000000000000000050000000','00000000000000000100000000','00000000000000000150000000',
'00000000000000000200000000','00000000000000000250000000','00000000000000000300000000',
'00000000000000000350000000','00000000000000000400000000','00000000000000000450000000',
'00000000000000000500000000','00000000000000000550000000','00000000000000000600000000',
'00000000000000000650000000','00000000000000000700000000','00000000000000000750000000',
'00000000000000000800000000','00000000000000000850000000','00000000000000000900000000',
'00000000000000000950000000','00000000000000001000000000']
scan 'student',{LIMIT=>10}
hbase pe使用
    只能测试工具自己的格式的数据,暂时没有办法自定义类型,测试还是有点欠缺的
    把每一列的数据长度设置长一点,看看后面读数据效率
    hbase pe --table=student --nomapred --oneCon=true --valueSize=1000 
       --compress=NONE --rows=500000000 --presplit=20 sequentialWrite 20 
    hbase pe --table=student --nomapred --oneCon=true --valueSize=1000 --size=1  randomRead 20

    --table #表名
    --nomapred #不使用MapReduce测试,而是用多线程的方式
    --oneCon #是否开启多线程测试
    --valueSize #写入hbase value大小,默认为1024 Byte
    --compress #压缩方式
    --rows #每个线程,各种写多少行数据,
    --autoFlush #是否开启自动实时flush
    --presplit #表的region个数
    --size #总大小,单位GiB。与-- rows 互斥。默认值:1.0。  
    --sequential  random 顺序随机读写   Read Write 读写
    --最后的20代表了20个线程

    size使用这个的时候数据不是顺序增长的,进行压测的时候会请求在region上分布不均匀
    所以后来使用的时候还是改成了 rows

标签:20,--,counter,wrk,测试工具,Hbase,hbase
From: https://www.cnblogs.com/wuxiaolong4/p/16712346.html

相关文章

  • hbase安装
    配置环境变量vim/etc/profile.d/my_env.sh#HBASE_HOMEexportHBASE_HOME=/opt/module/hbase-2.4.14exportPATH=$PATH:$HBASE_HOME/binsource/etc/profile......
  • HBase不睡觉书 pdf
    高清扫描版下载链接:https://pan.baidu.com/s/1kVNeGqKuOnEaHXFNe13B6Q点击这里获取提取码 ......
  • 带你掌握如何使用CANN 算子ST测试工具msopst
    摘要:本期带您了解如何使用msopst工具。本文分享自华为云社区《【CANN文档速递13期】算子ST测试工具【msopst】》,作者:昇腾CANN。如何获取msopst工具msopst工具存储在As......
  • Hbase基础总结
    HBase基础总结:1、什么是hbase:是面向列,高可靠,高性能,可伸缩的分布式存储数据库2、什么是列式存储:hbase可以看作一个大的HashMap,存取格式是由key-value的形式。四维定位到......
  • Hbase
    Hbase基本概念常用术语    namespace:类似于关系型数据库的databases的概念(默认两个空间hbase default)    region:按行切分的数据(根据 row_key )    R......
  • Spring Boot 项目访问hbase 编译遇到 java.io.FileNotFoundException: HADOOP_HOME an
    在window10系统下,使用idea创建了一个springboot项目,并使用hbase-client接口访问hbase,在编译的时候,遇到如下错误:  根据提示,打开链接:https://cwiki.apache.org/con......
  • 性能测试工具JMeter(一)---安装与运行
    JMeter简介1、Apache组织开发的开源免费压测工具2、纯java程序,跨平台性强3、源码可以从网上下载4、高可扩展性5、可对服务器、网络或对象模拟巨大的负载,进行压力测......
  • HBase集群部署与基础命令
    HBase集群部署安装hbase之前需要先搭建好hadoop集群和zookeeper集群。hadoop集群搭建可以参考:https://www.cnblogs.com/javammc/p/16545146.html下载安装包htt......
  • HBase概念入门
    HBase简介HBase基于Google的BigTable论文而来,是一个分布式海量列式非关系型数据库系统,可以提供大规模数据集的实时随机读写。下面通过一个小场景认识HBase存储。同样的一......
  • 大数据分析常用组件、框架、架构介绍(Hadoop、Spark、Storm、Flume、Kafka、Logstash、
    首先,数据传输组件:①Kafka是用Scala编写的分布式消息处理平台。②Logstash是用JRuby编写的一种分布式日志收集框架。③Flume是用Java编写的分布式实时日志收集框架。......