local模式
环境说明,flink需要jdk,并且flin.2k1.17,需要的是jdk11,jdk17不行,实测jdk1.8也行
-
下载flink包
wget https://dlcdn.apache.org
-
解压
#解压 tar -zxvf flink-1.17.2-bin-scala_2.12.tgz #进入flink目录 cd flink-1.17.2
-
修改配置文件
vi conf/flink-conf.yaml
#允许远程访问管理界面,如果你的flink安装在虚拟机里面,默认外面物理机是无法访问的 rest.bind-address: 0.0.0.0
-
启动和关闭
#启动 ./bin/start-cluster.sh #关闭 ./bin/stop-cluster.sh
-
查看flink管理界面
不配置第3步是默认不能远程访问的
浏览器访问:http://192.168.100.66:8081/
-
进程查看
TaskManagerRunner和StandaloneSessionClusterEntrypoint 是 flink的进程
别的进程是 hadoop的这里用不着,无视[hadoop@vm200 bin]$ jps -l 1939 org.apache.hadoop.hdfs.server.namenode.NameNode 2484 org.apache.hadoop.yarn.server.resourcemanager.ResourceManager 16473 org.apache.flink.runtime.entrypoint.StandaloneSessionClusterEntrypoint 2218 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode 16779 org.apache.flink.runtime.taskexecutor.TaskManagerRunner 17181 sun.tools.jps.Jps
Standallone
环境说明,flink需要jdk,并且flin.2k1.17,需要的是jdk11,jdk17不行,实测jdk1.8也行
三台主机已经相互配置了免密登录
节点分布
主机名 | ip | 节点类型 |
---|---|---|
vm200 | 192.168.1.200 | master |
vm201 | 192.168.1.201 | work |
vm202 | 192.168.1.202 | work |
-
下载flink包
wget https://dlcdn.apache.org
-
解压
#解压 tar -zxvf flink-1.17.2-bin-scala_2.12.tgz #进入flink目录 cd flink-1.17.2
-
修改配置文件
vi conf/flink-conf.yaml#指定jobmanger的位置 jobmanager.rpc.address: vm200 #默认是localhost,这样taskmanger 是不能访问到 jobmanger的,管理界面的Available Task Slots 会是0 jobmanager.bind-host: 0.0.0.0 #允许远程访问管理界面,如果你的flink安装在虚拟机里面,默认外面物理机是无法访问的 rest.bind-address: 0.0.0.0
vi works
写入从从节点ip或者主机名vm201 vm202
-
复制到从节点
scp -r /opt/flink-1.17.2/ vm201:/opt scp -r /opt/flink-1.17.2/ vm202:/opt
-
启动
#启动 ./bin/start-cluster.sh #关闭 ./bin/stop-cluster.sh
-
查看flink管理界面
浏览器访问:http://192.168.100.66:8081/如果taskslot是0,那么就是jobmanager.bind-host还是默认配置localhost,taskmanger请求不过来
-
节点进程查看
-
vm200
StandaloneSessionClusterEntrypoint 就是 fink的进程,另外三个是hadoop和yarn的,Standallone 模式用不到[hadoop@vm200 conf]$ jps -l 1939 org.apache.hadoop.hdfs.server.namenode.NameNode 2484 org.apache.hadoop.yarn.server.resourcemanager.ResourceManager 3685 org.apache.flink.runtime.entrypoint.StandaloneSessionClusterEntrypoint 2218 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode 10779 sun.tools.jps.Jps
-
vm201
TaskManagerRunner是flink 的任务进程[hadoop@vm201 root]$ jps -l 2369 sun.tools.jps.Jps 2243 org.apache.flink.runtime.taskexecutor.TaskManagerRunner 1723 org.apache.hadoop.yarn.server.nodemanager.NodeManager 1598 org.apache.hadoop.hdfs.server.datanode.DataNode
-
vm202
TaskManagerRunner是flink的任务经常[hadoop@vm202 root]$ jps 1616 DataNode 2309 Jps 2168 TaskManagerRunner 1741 NodeManager
-