首页 > 其他分享 >12.21

12.21

时间:2024-12-29 16:53:45浏览次数:1  
标签:HDFS fs 文件 12.21 hadoop apache org

实验2  熟悉常用的HDFS操作

 

 

1.实验目的

(1)理解HDFS在Hadoop体系结构中的角色;

(2)熟练使用HDFS操作常用的Shell命令;

(3)熟悉HDFS操作常用的Java API。

2. 实验平台

(1)操作系统:Linux(建议Ubuntu16.04或Ubuntu18.04);

(2)Hadoop版本:3.1.3;

(3)JDK版本:1.8;

(4)Java IDE:Eclipse。

3. 实验步骤

(一)编程实现以下功能,并利用Hadoop提供的Shell命令完成相同任务:

(1) 向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,则由用户来指定是追加到原有文件末尾还是覆盖原有的文件;

 

(2) 从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名;

 

(3) 将HDFS中指定文件的内容输出到终端中;

 

(4) 显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;

 

(5) 给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;

 

(6) 提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录;

 

(7) 提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在,则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录;

 

(8) 向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;

 

(9) 删除HDFS中指定的文件;

(10) 在HDFS中,将文件从源路径移动到目的路径。

 

(二)编程实现一个类“MyFSDataInputStream”,该类继承“org.apache.hadoop.fs.FSDataInputStream”,要求如下:实现按行读取HDFS中指定文件的方法“readLine()”,如果读到文件末尾,则返回空,否则返回文件一行的文本。

源代码:

import org.apache.hadoop.fs.FSDataInputStream;
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;

public class MyFSDataInputStream extends FSDataInputStream {

    private BufferedReader reader;

    public MyFSDataInputStream(FSDataInputStream in) {
        super(in); // 调用父类的构造方法
        this.reader = new BufferedReader(new InputStreamReader(in)); // 初始化 BufferedReader
    }

    /**
     * 自定义方法,用于按行读取 HDFS 文件
     *
     * @return 文件中的一行内容,或者文件末尾返回 null
     * @throws IOException
     */
    public String readLineFromHDFS() throws IOException {
        return reader.readLine(); // 按行读取
    }

    @Override
    public void close() throws IOException {
        if (reader != null) {
            reader.close(); // 关闭 BufferedReader
        }
        super.close(); // 关闭 FSDataInputStream
    }

    public static void main(String[] args) {
        // 示例代码,展示如何使用 MyFSDataInputStream
        // 假设已经配置好 Hadoop 环境并且指定了 HDFS 文件路径
        org.apache.hadoop.conf.Configuration conf = new org.apache.hadoop.conf.Configuration();
        conf.set("fs.defaultFS", "hdfs://node1:8020"); // 修改为你的 HDFS 地址
        org.apache.hadoop.fs.FileSystem fs = null;

        try {
            fs = org.apache.hadoop.fs.FileSystem.get(conf);
            // 打开 HDFS 中的文件
            FSDataInputStream inputStream = fs.open(new org.apache.hadoop.fs.Path("/myfile.txt"));
            MyFSDataInputStream myInputStream = new MyFSDataInputStream(inputStream);

            // 按行读取文件
            String line;
            while ((line = myInputStream.readLineFromHDFS()) != null) {
                System.out.println(line); // 输出每一行
            }

        } catch (IOException e) {
            e.printStackTrace();
        } finally {
            if (fs != null) {
                try {
                    fs.close(); // 关闭文件系统
                } catch (IOException e) {
                    e.printStackTrace();
                }
            }
        }
    }
}

 

 

(三)查看Java帮助手册或其它资料,用“java.net.URL”和“org.apache.hadoop.fs.FsURLStreamHandlerFactory”编程完成输出HDFS中指定文件的文本到终端中。

源代码:

import java.io.BufferedReader;
import java.io.InputStreamReader;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

public class HDFSFileReader {

    public static void main(String[] args) {
        // 配置 HDFS
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://node1:8020"); // 替换为你的 HDFS 地址

        // 配置 HDFS 文件系统实现类
        conf.set("fs.hdfs.impl", org.apache.hadoop.hdfs.DistributedFileSystem.class.getName());

        try {
            // 创建 HDFS 文件系统,使用 URI 而非 URL
            URI uri = new URI("hdfs://node1:8020");
            FileSystem fs = FileSystem.get(uri, conf);

            // HDFS 文件路径
            Path filePath = new Path("/myfile.txt"); // 替换为你要读取的 HDFS 文件路径

            // 打开 HDFS 文件输入流
            BufferedReader reader = new BufferedReader(new InputStreamReader(fs.open(filePath)));

            // 逐行读取并打印文件内容
            String line;
            while ((line = reader.readLine()) != null) {
                System.out.println(line);
            }

            // 关闭流
            reader.close();
            fs.close();

        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

 

 

4.实验报告

题目:

熟悉常用的HDFS操作

姓名

 

邓睿智

日期

2024.11.17

实验环境:Linux

实验内容与完成情况:熟悉常用的HDFS操作;已完成

出现的问题:编码过程中出现文件插入失败的问题

解决方案(列出遇到的问题和解决办法,列出没有解决的问题):

重新检查代码,发现位置拼写相关错误

 

 

 

标签:HDFS,fs,文件,12.21,hadoop,apache,org
From: https://www.cnblogs.com/drz1145141919810/p/18639214

相关文章

  • 12.21考试总结
    分数题号T1T2T3T4T5T6T7总分分数1001001002010010064584分析T1模板,讲烂了点击查看代码#include<bits/stdc++.h>#defineintlonglong#defineendl"\n"usingnamespacestd;constintmaxn=1e6+5,mod=1e9+7,inf=1e18;intn,a[maxn],dp[m......
  • 12.21
    软件构造课进入了关键的代码优化阶段,看着自己之前写的略显粗糙的代码,我意识到自己在编程技巧上还有很大的提升空间。习思课上,老师对上次的作业进行了点评,指出了我在语法和逻辑表达上的问题,我认真地做着笔记,暗暗发誓下次一定要取得进步。人机交互课上,小组讨论的氛围异常热烈,大家对......
  • 2024.12.21 周六
    2024.12.21周六Q1.1000Lottery"ThreeSevens"washeldfor$m$days.Onday$i$,$n_i$peoplewiththenumbers$a_{i,1},\ldots,a_{i,n_i}$participatedinthelottery.Itisknownthatineachofthe$m$days,onlyonewinnerwasselectedf......
  • 24.12.21
    回来第一场打成屎了\(\tiny-1\)A大胆猜测在\(n\)足够大时一定可以把\(y\)与成\(0\),那么就只需最大化\(x\)(NT:绿题不到)。那么\(n\)什么时候足够大呢?任取\(3\)个数,那么每一位都至少有一种消掉它的方法,因此如果现在还剩\(k\)位,就一定可以选出两个数消掉\(\lceilk/......
  • 2024.12.16~2024.12.21
    2024.12.16听说有人拿我的博客当乐子看,我想说,乐子人看什么都是乐子。。。所以我是否要将博客写的幽默深刻一点呢?我觉得也不是不行,但可能没有那个能力早上起床听到闹钟没有起来,心里想着:起床需要爆发力,睡一会再重启,然后我又成功的晚起了。。。上午非常好啊,就是被一道单调队列优......
  • 大二打卡(12.21)
    uml作业:实现视图建模:(1)分析系统用例流程中对象间的交互“校园卡管理系统”包括“充值消费子系统”、“身份识别门禁子系统”、“校方卡片授权信息管理子系统”等。[用例流程描述]充值消费子系统:用户通过界面输入个人信息和充值金额,提交充值申请。系统验证用户身份和账户信息......
  • KubeSphere 社区双周报 | 2023.12.21-2024.01.04
    KubeSphere社区双周报主要整理展示新增的贡献者名单和证书、新增的讲师证书以及两周内提交过commit的贡献者,并对近期重要的PR进行解析,同时还包含了线上/线下活动和布道推广等一系列社区动态。本次双周报涵盖时间为:2023.12.21-2024.01.04。贡献者名单新晋KubeSpherecon......
  • 12.21
          实验7Spark初级编程实践 1.实验目的(1)掌握使用Spark访问本地文件和HDFS文件的方法(2)掌握Spark应用程序的编写、编译和运行方法2.实验平台(1)操作系统:Ubuntu18.04(或Ubuntu16.04);(2)Spark版本:2.4.0;(3)Hadoop版本:3.1.3。3.实验步骤(1)Spark读取文件系统的数据 ......
  • 12.21每日报告
    今天早上考完了试设计模式 最后一题适配器模式写成了观察者还是没看清题题中说明不改变原有代码的基础上,所以不应该是观察者是给他调用猫的接口所以应该是适配器模式,将一个接口转换成用户所希望的另一个接口,将原本不兼容的类一起工作晚上做软件构造的大实验学习JFinal......
  • 12.21
    快速排序intPartition(SqListL,intlow,inthigh){L.elem[0]=L.elem[low];intpivotkey=L.elem[0];while(low<high){while(low<high&&L.elem[high]>=pivotkey)high--;L.elem[low]=L.elem[high];while(low<high&&......