实验2
熟悉常用的HDFS操作
1.实验目的
(1)理解HDFS在Hadoop体系结构中的角色;
(2)熟练使用HDFS操作常用的Shell命令;
(3)熟悉HDFS操作常用的Java API。
2. 实验平台
(1)操作系统:Linux(建议Ubuntu16.04或Ubuntu18.04);
(2)Hadoop版本:3.1.3;
(3)JDK版本:1.8;
(4)Java IDE:Eclipse。
3. 实验步骤
(一)编程实现以下功能,并利用Hadoop提供的Shell命令完成相同任务:
(1) 向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,则由用户来指定是追加到原有文件末尾还是覆盖原有的文件;
(2) 从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名;
(3) 将HDFS中指定文件的内容输出到终端中;
(4) 显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;
(5) 给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;
(6) 提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录;
(7) 提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在,则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录;
(8) 向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;
(9) 删除HDFS中指定的文件;
(10) 在HDFS中,将文件从源路径移动到目的路径。
(二)编程实现一个类“MyFSDataInputStream”,该类继承“org.apache.hadoop.fs.FSDataInputStream”,要求如下:实现按行读取HDFS中指定文件的方法“readLine()”,如果读到文件末尾,则返回空,否则返回文件一行的文本。
(三)查看Java帮助手册或其它资料,用“java.net.URL”和“org.apache.hadoop.fs.FsURLStreamHandlerFactory”编程完成输出HDFS中指定文件的文本到终端中。
4.实验报告
题目: |
熟悉常用的HDFS操作 |
姓名 |
刘雪超 |
日期:2024.11.11 |
实验环境:vmware,hadoop3.4.0,finalshell4.3.10,jdk1.8, IntelliJ IDEA 2023.2.2 |
||||
实验内容与完成情况: 1.上传文件: hdfs dfs -copyFromLocal /local/path/to/file /hdfs/path/to/destination 追加文件: hdfs dfs -appendToFile /local/path/to/file /hdfs/path/to/destination 2. hdfs_file="/path/in/hdfs/file.txt"; local_file="./`basename $hdfs_file`"; [ -e "$local_file" ] && local_file="./`basename ${hdfs_file%.*}_1${hdfs_file##*.}`"; i=1; while [ -e "$local_file" ]; do ((i++)); local_file="./`basename ${hdfs_file%.*}_$i${hdfs_file##*.}`"; done; hdfs dfs -get "$hdfs_file" "$local_file" 3.
4. hdfs dfs -ls /path/to/file hdfs dfs -stat '%a %s %y %p' /path/to/file
5. hdfs dfs -ls -R /path/to/directory
6. 创建文件hdfs dfs -mkdir -p /path/to/directory # 确保目录存在 hdfs dfs -put /local/path/to/file /path/to/directory/ 删除文件hdfs dfs -rm /path/to/file
7.创建与删除目录hdfs dfs -mkdir -p /path/to/new_directory hdfs dfs -rmdir /path/to/empty_directory # 只能删除空目录 hdfs dfs -rm -r /path/to/non_empty_directory # 需要用户确认才能删除非空目录
8. echo "content to append" | hdfs dfs -appendToFile - /path/to/existing_file
9.删除文件hdfs dfs -rm /path/to/file
10.移动文件hdfs dfs -mv /source/path/to/file /destination/path/ 二、编程实现一个类“MyFSDataInputStream”,该类继承“org.apache.hadoop.fs.FSDataInputStream”,要求如下:实现按行读取HDFS中指定文件的方法“readLine()”,如果读到文件末尾,则返回空,否则返回文件一行的文本。
三、查看Java帮助手册或其它资料,用“java.net.URL”和“org.apache.hadoop.fs.FsURLStreamHandlerFactory”编程完成输出HDFS中指定文件的文本到终端中。
|
||||
出现的问题:HDFS文件上传后部分数据缺失 |
||||
解决方案(列出遇到的问题和解决办法,列出没有解决的问题):使用定期校验,定期向NameNode发送心跳信号(heartbeats)和块报告(block reports),以告知NameNode它们的状态和存储的数据块信息。 |