首页 > 其他分享 >Hadoop-HDFS压测】针对HDFS进行读写性能测试

Hadoop-HDFS压测】针对HDFS进行读写性能测试

时间:2023-04-27 15:00:27浏览次数:31  
标签:HDFS 压测 jar Hadoop hadoop sec 测试

【Hadoop-HDFS压测】针对HDFS进行读写性能测试


1)测试工具
2)写入数据测试
3)读取数据测试
4)清除数据

1)测试工具

Hadoop自身集成的工具包:hadoop-mapreduce-client-jobclient-3.1.1.jar

注意:

1、如果是Apache版本安装的Hadoop默认在lib目录下,如果是CDH版本安装的Hadoop需要自己去对应目录下找。

2、此工具测试需要执行hadoop命令,所以需要在服务器中配置Hadoop环境变量。

3、先执行write命令,再执行read命令。

2)写入数据测试

(1)参数说明

TestDFSIO:测试任务名称
write:写入命令
nrFiles:文件个数
size:单个文件大小
resFile:测试结果文件日志生成的路径,默认为当前目录下

(2)执行命令

hadoop jar /opt/cloudera/parcels/CDH/jars/hadoop-mapreduce-client-jobclient-3.1.1.7.1.8.0-801-tests.jar TestDFSIO -write -nrFiles 10 -size 10MB -resFile /export/servers/result.log

(3)测试结果


Total MBytes processed:总数据量(文件数量×单个文件大小)

Throughput mb/sec:每秒吞吐量

Average IO rate mb/sec:每秒IO速率

Test exec time sec:执行时间

3)读取数据测试

(1)参数说明


TestDFSIO:测试任务名称
write:读取命令
nrFiles:文件个数
size:单个文件大小
resFile:测试结果文件日志生成的路径,默认为当前目录下

(2)执行命令


hadoop jar /opt/cloudera/parcels/CDH/jars/hadoop-mapreduce-client-jobclient-3.1.1.7.1.8.0-801-tests.jar TestDFSIO -read -nrFiles 10 -size 2048MB -resFile /export/servers/result3.log

(3)测试结果


Total MBytes processed:总数据量(文件数量×单个文件大小)

Throughput mb/sec:每秒吞吐量

Average IO rate mb/sec:每秒IO速率

Test exec time sec:执行时间

4)清除数据

(1)参数说明


TestDFSIO:测试任务名称
clean:执行清理命令

(2)执行命令:


hadoop jar /opt/cloudera/parcels/CDH/jars/hadoop-mapreduce-client-jobclient-3.1.1.7.1.8.0-801-tests.jar TestDFSIO -clean

标签:HDFS,压测,jar,Hadoop,hadoop,sec,测试
From: https://www.cnblogs.com/whiteY/p/17358920.html

相关文章

  • Hadoop集群搭建总结
    对这两天搭建Hadoop集群做个经验总结master节点:Ubuntu22.04,也就是我的台式机主机slave节点:Debian11,通过VMware虚拟出来(1)集群节点设置和角色分配master  namenode,datanode,resourcemanager,nodemanagerslave0  secondarynamenode,datanode,nodem......
  • 从0-1_Hadoop安装
    1、流程说明本文参考尚硅谷大数据教程加以整理1、win10,安装好xshell/xftp/vmware,搭建虚拟机,克隆3台2、配置网络,防火墙,host,hostname,创建新用户,配置ssh免密3、上传jdk/hadoop安装包,解压,配置环境变量,wordcount测试注意:虚拟机搭建好,配置完就要切换到xing用户,使用sudo操......
  • 头歌平台——Hadoop开发环境搭建
    第1关:配置开发环境-JavaJDK的配置(1)创建一个/app文件夹,命令mkdir/app(2)配置环境变量解压好JDK之后还需要在环境变量中配置JDK,才可以使用,接下来就来配置JDK。输入命令:vim/etc/profile编辑配置文件;在文件末尾输入如下代码(不可以有空格)。JAVA_HOME=/app/jdk1.8.0_171CLASSPA......
  • Java API 读取HDFS目录下的所有文件
    /***获取1号店生鲜食品的分类id字符串*@paramfilePath*@return*/publicStringgetYHDSXCategoryIdStr(StringfilePath){ finalStringDELIMITER=newString(newbyte[]{1}); finalStringINNER_DELIMITER=","; //遍历目录下的所有文件 BufferedReader......
  • 如何写压测方案
    压测方案是指在系统稳定性和性能测试中,通过模拟大量用户并发请求,对系统的响应时间、吞吐量、稳定性等关键指标进行测试和评估的方法。下面是一份压测方案的通用步骤:确定压测目标:首先需要明确压测的目标,比如评估系统在高并发情况下的性能表现,找出系统瓶颈等。确定压测环境:根据系......
  • Hadoop、Storm和Spark 三者的区别、比较
    版权声明:欢迎转载,注明作者和出处就好!如果不喜欢或文章存在明显的谬误,请留言说明原因再踩哦,谢谢,我也可以知道原因,不断进步!一、hadoop和Storm该选哪一个?为了区别hadoop和Storm,该部分将回答如下问题:1.hadoop、Storm各是什么运算2.Storm为什么被称之为流式计算系统3.hadoop适合什么......
  • 达梦读写分离分发测试(Jmeter 压测)
    1. 测试目的本次测试目的主要是验证达梦读写分离集群是否生效,查询负载请求是否会自动分发给备库执行2. 达梦读写分离部署(一写一读,过程忽略)配置ip地址实例名端口号数据库版本主库192.168.145.66DM6652364-2-98-21.12.16-153423-10040-SEC......
  • Hadoop操作
    基本命令启动Hadoopstart-dfs.sh确保ssh服务打开了,否则启动不成功打开ssh服务:sudo/usr/sbin/sshd创建文件夹hadoopfs-mkdir路径forexample!hadoopfs-mkdir/HomeWork就会在根目录创建一个HomeWork文件夹 上传文件hadoopfs-put文件名服务器端文件夹名For......
  • jmeter分布式压测csv文件配置
    1、在控制机上添加csv数据文件设置2、将文件发送到执行机上的bin/目录下3、然后输入./文件名即可 4、最后远程执行执行机   ......
  • wrk压测工具
     1、参数说明使用方法:wrk<选项><被测HTTP服务的URL>Options:-c,--connections<N>跟服务器建立并保持的TCP连接数量-d,--duration<T>压测时间-t,--t......