实验2 熟悉常用的HDFS操作
1.实验目的
(1)理解HDFS在Hadoop体系结构中的角色;
(2)熟练使用HDFS操作常用的Shell命令;
(3)熟悉HDFS操作常用的Java API。
2. 实验平台
(1)操作系统:Linux(建议Ubuntu16.04或Ubuntu18.04);
(2)Hadoop版本:3.1.3;
(3)JDK版本:1.8;
(4)Java IDE:Eclipse。
3. 实验步骤
(一)编程实现以下功能,并利用Hadoop提供的Shell命令完成相同任务:
(1) 向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,则由用户来指定是追加到原有文件末尾还是覆盖原有的文件;
(2) 从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名;
(3) 将HDFS中指定文件的内容输出到终端中;
(4) 显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;
(5) 给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;
(6) 提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录;
(7) 提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在,则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录;
(8) 向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;
(9) 删除HDFS中指定的文件;
(10) 在HDFS中,将文件从源路径移动到目的路径。
(二)编程实现一个类“MyFSDataInputStream”,该类继承“org.apache.hadoop.fs.FSDataInputStream”,要求如下:实现按行读取HDFS中指定文件的方法“readLine()”,如果读到文件末尾,则返回空,否则返回文件一行的文本。
源代码:
import org.apache.hadoop.fs.FSDataInputStream;
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
public class MyFSDataInputStream extends FSDataInputStream {
private BufferedReader reader;
public MyFSDataInputStream(FSDataInputStream in) {
super(in); // 调用父类的构造方法
this.reader = new BufferedReader(new InputStreamReader(in)); // 初始化 BufferedReader
}
/**
* 自定义方法,用于按行读取 HDFS 文件
*
* @return 文件中的一行内容,或者文件末尾返回 null
* @throws IOException
*/
public String readLineFromHDFS() throws IOException {
return reader.readLine(); // 按行读取
}
@Override
public void close() throws IOException {
if (reader != null) {
reader.close(); // 关闭 BufferedReader
}
super.close(); // 关闭 FSDataInputStream
}
public static void main(String[] args) {
// 示例代码,展示如何使用 MyFSDataInputStream
// 假设已经配置好 Hadoop 环境并且指定了 HDFS 文件路径
org.apache.hadoop.conf.Configuration conf = new org.apache.hadoop.conf.Configuration();
conf.set("fs.defaultFS", "hdfs://node1:8020"); // 修改为你的 HDFS 地址
org.apache.hadoop.fs.FileSystem fs = null;
try {
fs = org.apache.hadoop.fs.FileSystem.get(conf);
// 打开 HDFS 中的文件
FSDataInputStream inputStream = fs.open(new org.apache.hadoop.fs.Path("/myfile.txt"));
MyFSDataInputStream myInputStream = new MyFSDataInputStream(inputStream);
// 按行读取文件
String line;
while ((line = myInputStream.readLineFromHDFS()) != null) {
System.out.println(line); // 输出每一行
}
} catch (IOException e) {
e.printStackTrace();
} finally {
if (fs != null) {
try {
fs.close(); // 关闭文件系统
} catch (IOException e) {
e.printStackTrace();
}
}
}
}
}
(三)查看Java帮助手册或其它资料,用“java.net.URL”和“org.apache.hadoop.fs.FsURLStreamHandlerFactory”编程完成输出HDFS中指定文件的文本到终端中。
源代码:
import java.io.BufferedReader;
import java.io.InputStreamReader;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class HDFSFileReader {
public static void main(String[] args) {
// 配置 HDFS
Configuration conf = new Configuration();
conf.set("fs.defaultFS", "hdfs://node1:8020"); // 替换为你的 HDFS 地址
// 配置 HDFS 文件系统实现类
conf.set("fs.hdfs.impl", org.apache.hadoop.hdfs.DistributedFileSystem.class.getName());
try {
// 创建 HDFS 文件系统,使用 URI 而非 URL
URI uri = new URI("hdfs://node1:8020");
FileSystem fs = FileSystem.get(uri, conf);
// HDFS 文件路径
Path filePath = new Path("/myfile.txt"); // 替换为你要读取的 HDFS 文件路径
// 打开 HDFS 文件输入流
BufferedReader reader = new BufferedReader(new InputStreamReader(fs.open(filePath)));
// 逐行读取并打印文件内容
String line;
while ((line = reader.readLine()) != null) {
System.out.println(line);
}
// 关闭流
reader.close();
fs.close();
} catch (Exception e) {
e.printStackTrace();
}
}
}
4.实验报告
题目: |
熟悉常用的HDFS操作 |
姓名
|
邓睿智 |
日期 2024.11.17 |
实验环境:Linux |
||||
实验内容与完成情况:熟悉常用的HDFS操作;已完成 |
||||
出现的问题:编码过程中出现文件插入失败的问题 |
||||
解决方案(列出遇到的问题和解决办法,列出没有解决的问题): 重新检查代码,发现位置拼写相关错误 |
标签:HDFS,fs,文件,12.21,hadoop,apache,org From: https://www.cnblogs.com/drz1145141919810/p/18639214