普通创建:hadoop fs -mkdir /xiaolin
递归创建:hadoop fs -mkdir -p /xiaolin/xiaoyin
2)从本地剪切文件粘贴到 HDFS 上(-moveFromLocal)
mkdir xuan.txt
hadoop fs -moveFromLocal xuan.txt /xiaolin
3)把本地文件复制到 HDFS 上(-copyFromLocal 或者 -put)
hadoop fs -copyFromLocal xuan.txt /
hadoop fs -put xuan.txt /
4)从 HDFS 复制文件到本地上(-copyToLocal 或者 -get)
hadoop fs -copyToLocal /xiaolin ./
hadoop fs -get /xiaolin ./
5)在 HDFS 里拷贝文件路径到另一个路径上(-cp)
hadoop fs -mkdir /xiaona
hadoop fs -cp /xiaolin/xuan.txt /xiaona/
6)追加文件到 HDFS 里的文件末尾(-appendToFile)
vim zero.txt
hadoop fs -appendToFile zero.txt /xiaolin/xuan.txt
7)显示文件内容(-cat)
hadoop fs -cat /xiaolin/xuan.txt
8)修改文件所属权限(-chmod)
hadoop fs -chmod 777 /xiaolin/xuan.txt
9)移动文件(-mv)
hadoop fs -mv /xiaolin/xuan.txt /xiaolin/xiaoyin
10)从 HDFS 里合并下载多个文件到本地(-getmerge)
hadoop fs -getmerge /xiaolin/* ./
11)删除文件或文件夹(-rm)
hadoop fs -rm /xiaolin/xiaoyin
12)设置 HDFS 中文件的副本数量(-setrep)
hadoop fs -setrep 5 /xiaolin/xuan.txt
13)查看 HDFS 目录数据量(-du)
Usage:hdfs dfs -du [-s] [-h] URI [URI …]
-s选项将显示文件长度的汇总摘要,而不是单个文件。
-h选项将以“人类可读”的方式格式化文件大小(例如64.0m而不是67108864)
14)创建一个零长度的文件(-touchz)
hdfs dfs -touchz URI [URI …]
15)显示文件所占块数(-stat)
Usage:hdfs dfs -stat URI [URI …]