首页 > 其他分享 >大数据指令汇总

大数据指令汇总

时间:2023-06-21 18:23:10浏览次数:36  
标签:bin 启动 -- 汇总 sh 指令 spark 数据 hbase

目录

使用Finalshell作为连接机器

界面

可以将命令保存在finalshell里,这样就不用每次都输入命令,最好是将Hadoop配置到环境变量里,减少命令的长度与复杂度。

image-20230621165216800

image-20230621165332206

命令汇总

针对全部会话的命令

只有zookeeper需要针对所有的机器发送命令,包括启动、关闭、状态,点击finalshell最下方那个当前会话选择为全部会话即可,前提是三台集群都用finalshell打开并连接。

Zookeeper集群启动:

zkServer.sh start

Zookeeper集群状态:

zkServer.sh status

Zookeeper集群关闭:

zkServer.sh stop

针对当前会话的命令

几乎所有的命令都在node1这台机器上发送,包括Hadoop的启动与关闭等等。

Hadoop启动:

start-all.sh

Hadoop关闭:

stop-all.sh

hive1启动:

nohup hive --service metastore &

hive2启动:

nohup hive --service hiveserver2 &

hive1以及hive2的启动由于采用的不打印日期,所以需要两下回车才算启动,启动需要一定的时间,等待一两分钟后再启动beeline。

beeline启动:

beeline

beeline登录(账户是root,密码为空):

! connect jdbc:hive2://node1:10000

hbase启动:

start-hbase.sh

habse客户端启动:

hbase shell

phoneix启动:

sqlline.py node1:2181

conda激活spark环境:

conda activate pyspark

spark启动:

/export/server/spark-3.3.2-bin-hadoop3/sbin/start-all.sh

node2启动spark:

/export/server/spark-3.3.2-bin-hadoop3/sbin/start-master.sh

spark-Yarn启动:

/export/server/spark-3.3.2-bin-hadoop3/bin/pyspark --master yarn

spark-Yarn-shell启动:

/export/server/spark-3.3.2-bin-hadoop3/bin/spark-shell --master yarn

spark-Yarn-submit启动:

/export/server/spark-3.3.2-bin-hadoop3/bin/spark-submit --master yarn

spark-Master启动:

/export/server/spark-3.3.2-bin-hadoop3/bin/pyspark --master spark://node1:7077

spark-Master-shell启动:

/export/server/spark-3.3.2-bin-hadoop3/bin/bin/spark-shell --master spark://node1:7077

spark-Master-submit启动:

/export/server/spark-3.3.2-bin-hadoop3/bin/spark-submit --master spark://node1:7077 

spark关闭命令:

/export/server/spark-3.3.2-bin-hadoop3/sbin/stop-all.sh

hbase关闭命令:

stop-hbase.sh

hive关闭:

jps(查看端口号)
kill -9 hive对应的端口号(一共有两个)

启动顺序:

Hadoop-->zookeeper-->hive1-->hive2-->beeline-->hbase-->phoenix-->spark

关闭顺序:

spark-->phoenix-->hbase-->beeline-->hive2-->hive1-->zookeeper-->Hadoop

ps:

有些是可以共存的,顺序意思是指关闭某项之前要确定前一项已经关闭,打开某项之前要确定前一项已经打开,但beeline是基于hive的,它打开与否与hbase无关等等。

标签:bin,启动,--,汇总,sh,指令,spark,数据,hbase
From: https://www.cnblogs.com/lht020321/p/17496882.html

相关文章

  • dw 的启动时初始化 动态数据源变成私有的 同时mq的监听要比bean后初始化,要么设置成懒
     将applicationContext里面获取到的bean添加到allrunner里面,进行 私有化部署数据源初始化 消费是优于一些bean,这个意思是消息消费注册的时候可能有一些bean还没有,所以等一会,消费者是先于一些bean的 Spring加载RocketMq消费者实例后会立即开始消费,不论Spring容器是否初......
  • Python遍历dict类型数据,输出预期结果
    主要代码段: dict数据(预期结果对应的数据如下)1、 2、 输出预期结果:1、[(值1,值2),(值3,值4)] 2、[(值1,值2)](两种情况不会同时出现) ......
  • 基于 Flink CDC 构建 MySQL 到 Databend 的 实时数据同步
    这篇教程将展示如何基于FlinkCDC快速构建MySQL到Databend的实时数据同步。本教程的演示都将在FlinkSQLCLI中进行,只涉及SQL,无需一行Java/Scala代码,也无需安装IDE。假设我们有电子商务业务,商品的数据存储在MySQL,我们需要实时把它同步到Databend中。接下来的内......
  • 时序数据库 TDengine 与腾讯云多个产品线完成兼容性互认证明
    随着数字经济蓬勃发展,数据成为驱动企业数字化转型的关键生产要素,如何加强对数据资源的治理利用、实现数据洞察、激活数据价值正成为亟待解决的问题。在此背景下,数据库与操作系统、云平台等国产化软件相互结合赋能成为解决问题的思路之一。 近日,经过数月努力,涛思数据旗下时序数......
  • Vue单项数据流是什么
    父级prop的更新会向下流动到子组件中,但是反过来则不行,防止从子组件意外改变父级组件的状态每次父级组件发生更新时,子组件中所有的prop都将会刷新为最新的值子组件想修改时,只能通过$emit派发一个自定义事件,父组件接收到后,由父组件修改 ......
  • 视频融合平台EasyCVR迁移数据库报错1146是什么原因?该如何解决?
    EasyCVR视频融合平台基于云边端协同架构,具有强大的数据接入、处理及分发能力。平台支持多协议接入,包括:国标GB28181、RTMP、RTSP/Onvif、海康Ehome、海康SDK、大华SDK、宇视SDK等,对外可分发多格式视频流,包括RTSP、RTMP、FLV、HLS、WebRTC等。我们在此前的文章中也介绍过关于EasyC......
  • 随着人工智能和大数据技术的不断发展,大模型与工业机器人的结合逐渐成为了一个热门话题
    目录1.引言2.技术原理及概念3.实现步骤与流程4.示例与应用4.1实例分析4.2核心代码实现随着人工智能和大数据技术的不断发展,大模型与工业机器人的结合逐渐成为了一个热门话题。这种结合不仅可以提高机器人的工作效率,还可以提高模型的性能和准确度,为工业自动化领域带来巨大的变......
  • Centos 7.X根分区磁盘扩容(非LVM)或home数据盘
    原配置100G,改配后110G   查看当前磁盘情况df-h   查看磁盘信息fdisk-l删除分区 新建分区 更新磁盘   [root@localhost~]#df-h文件系统容量已用可用已用%挂载点devtmpfs1.9G01.9G0%/devtmpfs......
  • 1688商品详情数据接口、商品列表接口,商品属性接口、商品优惠券接口
    业务背景:大家有探讨稳定1688平台商品详情数据包括:获取商品列表主图、价格、销量,标题,sku的等数据接口完整解决方案。这个引起了我技术挑战的兴趣。目前,自己做了压测,QPS高、出滑块概率极低,API整体稳定,可满足业务场景的性能需求。解决方案: 经讨论封装成item_get-根据ID取商品详情接口......
  • Ts数据类型
    如何进行类型约束仅需要在变量、函数的参数、函数的返回值位置加上:类型ts在很多场景中可以完成类型推导any:表示任意类型,对该类型,ts不进行类型检查基本类型number:数字string:字符串boolean:布尔数组object:对象null和undefinednull和undefined是所有其他类型的子......