首页 > 其他分享 >12.16

12.16

时间:2025-01-14 19:54:46浏览次数:1  
标签:文件 fs HDFS hadoop 12.16 apache org

1.实验目的

(1)理解HDFS在Hadoop体系结构中的角色;

(2)熟练使用HDFS操作常用的Shell命令;

(3)熟悉HDFS操作常用的Java API。

2. 实验平台

(1)操作系统:Linux(建议Ubuntu16.04或Ubuntu18.04);

(2)Hadoop版本:3.1.3;

(3)JDK版本:1.8;

(4)Java IDE:Eclipse。

3. 实验步骤

(一)编程实现以下功能,并利用Hadoop提供的Shell命令完成相同任务:

(1) 向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,则由用户来指定是追加到原有文件末尾还是覆盖原有的文件;

 

(2) 从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名;

 

(3) 将HDFS中指定文件的内容输出到终端中;

 

(4) 显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;

 

(5) 给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;

 

(6) 提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录;

 

(7) 提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在,则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录;

 

(8) 向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;

 

(9) 删除HDFS中指定的文件;

(10) 在HDFS中,将文件从源路径移动到目的路径。

 

(二)编程实现一个类“MyFSDataInputStream”,该类继承“org.apache.hadoop.fs.FSDataInputStream”,要求如下:实现按行读取HDFS中指定文件的方法“readLine()”,如果读到文件末尾,则返回空,否则返回文件一行的文本。

源代码:

import org.apache.hadoop.fs.FSDataInputStream;
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;

public class MyFSDataInputStream extends FSDataInputStream {

    private BufferedReader reader;

    public MyFSDataInputStream(FSDataInputStream in) {
        super(in); // 调用父类的构造方法
        this.reader = new BufferedReader(new InputStreamReader(in)); // 初始化 BufferedReader
    }

    /**
     * 自定义方法,用于按行读取 HDFS 文件
     *
     * @return 文件中的一行内容,或者文件末尾返回 null
     * @throws IOException
     */
    public String readLineFromHDFS() throws IOException {
        return reader.readLine(); // 按行读取
    }

    @Override
    public void close() throws IOException {
        if (reader != null) {
            reader.close(); // 关闭 BufferedReader
        }
        super.close(); // 关闭 FSDataInputStream
    }

    public static void main(String[] args) {
        // 示例代码,展示如何使用 MyFSDataInputStream
        // 假设已经配置好 Hadoop 环境并且指定了 HDFS 文件路径
        org.apache.hadoop.conf.Configuration conf = new org.apache.hadoop.conf.Configuration();
        conf.set("fs.defaultFS", "hdfs://node1:8020"); // 修改为你的 HDFS 地址
        org.apache.hadoop.fs.FileSystem fs = null;

        try {
            fs = org.apache.hadoop.fs.FileSystem.get(conf);
            // 打开 HDFS 中的文件
            FSDataInputStream inputStream = fs.open(new org.apache.hadoop.fs.Path("/myfile.txt"));
            MyFSDataInputStream myInputStream = new MyFSDataInputStream(inputStream);

            // 按行读取文件
            String line;
            while ((line = myInputStream.readLineFromHDFS()) != null) {
                System.out.println(line); // 输出每一行
            }

        } catch (IOException e) {
            e.printStackTrace();
        } finally {
            if (fs != null) {
                try {
                    fs.close(); // 关闭文件系统
                } catch (IOException e) {
                    e.printStackTrace();
                }
            }
        }
    }
}

 

 

(三)查看Java帮助手册或其它资料,用“java.net.URL”和“org.apache.hadoop.fs.FsURLStreamHandlerFactory”编程完成输出HDFS中指定文件的文本到终端中。

源代码:

import java.io.BufferedReader;
import java.io.InputStreamReader;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

public class HDFSFileReader {

    public static void main(String[] args) {
        // 配置 HDFS
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://node1:8020"); // 替换为你的 HDFS 地址

        // 配置 HDFS 文件系统实现类
        conf.set("fs.hdfs.impl", org.apache.hadoop.hdfs.DistributedFileSystem.class.getName());

        try {
            // 创建 HDFS 文件系统,使用 URI 而非 URL
            URI uri = new URI("hdfs://node1:8020");
            FileSystem fs = FileSystem.get(uri, conf);

            // HDFS 文件路径
            Path filePath = new Path("/myfile.txt"); // 替换为你要读取的 HDFS 文件路径

            // 打开 HDFS 文件输入流
            BufferedReader reader = new BufferedReader(new InputStreamReader(fs.open(filePath)));

            // 逐行读取并打印文件内容
            String line;
            while ((line = reader.readLine()) != null) {
                System.out.println(line);
            }

            // 关闭流
            reader.close();
            fs.close();

        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

标签:文件,fs,HDFS,hadoop,12.16,apache,org
From: https://www.cnblogs.com/szm123/p/18671473

相关文章

  • 2024.12.16(SpringBoot知识点总结)
    4.2配置文件与配置类的属性映射方式4.2.1使用注解@Value映射我们可以通过@Value注解将配置文件中的值映射到一个Spring管理的Bean的字段上例如:application.properties配置如下:person:name:zhangsanage:18123或者,application.yml配置如下:person:name:zhangsanag......
  • 12.16
    虽然已经对Vue.js有了一定的了解,但Vue的生态系统非常庞大,还有很多知识值得深入学习。例如,学习Vue的服务端渲染(SSR)技术,以提高应用的首屏加载速度和搜索引擎优化(SEO);探索Vue的测试框架(如VueTestUtils),编写单元测试和集成测试,保证代码的质量和稳定性;研究Vue的动画和过渡效......
  • 12.16
    实验25:访问者模式 [实验任务一]:打包员在我们课堂上的“购物车”的例子中,增加一个新的访问者:打包员,负责对购物车中货物装包。实验要求:1. 提交源代码,不要提交类图;packagetest25; publicabstractclassAbstractGoodsimplementsGoods{    privateStringn......
  • 12.16博客 备战java14
    今天学习增删改查中的修改功能,这部分是期末考试必须拿到的分数建立数据库连接。构建UPDATE语句的PreparedStatement对象,其中有两个占位符,第一个用于设置要更新的年龄值,第二个用于指定要修改的记录的ID(通过WHERE子句来限定条件)。执行executeUpdate方法进行修改操作,同样......
  • 2024.12.16(周一)
    namespaceDatabase.MainForm{partialclassChangePassword{///<summary>///Requireddesignervariable.///</summary>privateSystem.ComponentModel.IContainercomponents=null;///<summary&......
  • C#/.NET/.NET Core技术前沿周刊 | 第 18 期(2024年12.16-12.22)
    前言C#/.NET/.NETCore技术前沿周刊,你的每周技术指南针!记录、追踪C#/.NET/.NETCore领域、生态的每周最新、最实用、最有价值的技术文章、社区动态、优质项目和学习资源等。让你时刻站在技术前沿,助力技术成长与视野拓宽。欢迎投稿、推荐或自荐优质文章、项目、学习资源等。......
  • 上周热点回顾(12.16-12.22)
    热点随笔:· 33岁,从上海裸辞回西安创业 (龙卷风摧毁停车场!)· 好消息,在VisualStudio中可以免费使用GitHubCopilot了! (追逐时光者)· 2000Star,是时候为我的开源项目更新下功能了 (程序猿阿朗)· 他又又来了,c#开源sql解析引擎类库【SqlParser.Net1.0】正式发布 (三......
  • 12.16 二叉树的题目用acm模式 leetcode
    任务有leetcode1.将所有二叉树的题目用acm模式进行补充(完成了)github上面的所有二叉树ACM答案,模板https://github.com/PUNKDONG/leetcode/tree/master/src/treenodepackagetreenode;importjava.util.*;publicclasstreecode0_template{staticclassTreeNo......
  • 12.16[net]【study】
    似乎存在数据截断或损坏的问题。具体来说,预期的数据 "Hello,thisisatestmessage" 被截断成了 "ssage"。这可能是由于以下几个原因造成的:数据包大小问题:某些网络设备或中间件可能会对数据包的大小进行限制或截断。数据偏移问题:在接收端解析数据时可能存在偏移,导致只读......
  • 12.16链表
    1.思维导图2.相关代码头文件linkList.h:#ifndef__LINKLIST_H__#define__LINKLIST_H__#include<stdio.h>#include<stdlib.h>typedefintDatatype;//创建节点结构体类型typedefstructnode{ union { intlen; Datatypedata; }; structnode*next;}li......