【hive】
1.连接hive:
hive
2.hive中查询:
同mysql,如 select * from tablename;
注意:hive中的操作一定要加分号; 否则语句一直不结束
【hdfs】
1.查询文件或目录
hdfs dfs -ls 目录名
如:hdfs dfs -ls /winhadoop/org/ipva_third_data/2024/03/07
查看根目录 hdfs dfs -ls
2.查看文件内容
hdfs dfs -cat 文件名 如:hdfs dfs -cat /test/a.txt
3.查找文件或目录 查找使用-find
hdfs dfs -find 文件目录 | grep 搜索文字
如:hdfs dfs -find /test | grep a.txt
4.对文件内容进行过滤(查找文件中有的Capid_0000158的行) 使用 -cat查看文件,过滤使用 | grep
hdfs dfs -find 文件名 | grep 搜索文字
如:hdfs dfs -find /test/a.txt | grep Capid_0000158
5.把文件从目录1移动到目录2
hdfs dfs -mv 目录1/文件 目录2
如:hdfs dfs -mv /test/a.txt /winhadoop 把/test/a.txt移动到/winhadoop目录下
6.创建一个文件
hdfs dfs -touch /test/a.txt
在根目录下创建文件 hdfs dfs -touch a.txt
7.在文件中写入内容
echo '写入内容' | hdfs dfs -appendToFile - 文件名 注意写入内容要用‘ ’引起来
如:echo 'hello world' | hdfs dfs -appendToFile - /test.a,txt 在/test.a,txt文件中写入hello world
8.删除文件
hdfs dfs -rm /test/a.txt
【hbase】
1.连接hbase: hbase shell
退出hbase: quit 或 ctrl+c
2.查询:
get 'tablename','value'
scan 'tablename',{FILTER=>"PrefixFilter('value')"}
查询整表数据
scan 'test2'
3.插入:
put命令:put ‘table_name’,’ rowKey’,’列簇:列’,’value’
put 'traffic_through','f1b76f24b7#20210118#1','d:1530','34#6'
4.删除:
delete 命令: delete ‘table_name’,'rowKey','列簇:列'
delete 'traffic_inout','ad8d2f80d7#20210118#1','d:1530'
删除全表数据
truncate 'test2'
标签:hdfs,dfs,hive,test,hbase,txt From: https://www.cnblogs.com/plzh/p/18070759