首页 > 其他分享 >框架运行出错

框架运行出错

时间:2023-12-07 21:12:17浏览次数:29  
标签:hdfs 框架 hadoop server datanode 出错 apache org 运行

  1. 定位错误的进程(我们的例子是Datanode)

  2. 查看错误进程的日志(去DN挂掉的节点,找到其日志,例子里面我们查看hadoop102的DN日志)

  3. 定位运行日志位置

    日志的位置就在Hadoop家目录下logs文件夹里面

  4. 查看日志

    tail -n 100 /opt/module/hadoop-3.1.3/logs/hadoop-atguigu-datanode-hadoop102.log
    
    2022-05-30 08:46:50,265 INFO org.eclipse.jetty.server.AbstractConnector: Started ServerConnector@3406472c{HTTP/1.1,[http/1.1]}{localhost:33538}
    2022-05-30 08:46:50,265 INFO org.eclipse.jetty.server.Server: Started @1003ms
    2022-05-30 08:46:50,338 INFO org.apache.hadoop.hdfs.server.datanode.web.DatanodeHttpServer: Listening HTTP traffic on /0.0.0.0:9864
    2022-05-30 08:46:50,341 INFO org.apache.hadoop.util.JvmPauseMonitor: Starting JVM pause monitor
    2022-05-30 08:46:50,359 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: dnUserName = atguigu
    2022-05-30 08:46:50,359 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: supergroup = supergroup
    2022-05-30 08:46:50,392 INFO org.apache.hadoop.ipc.CallQueueManager: Using callQueue: class java.util.concurrent.LinkedBlockingQueue queueCapacity: 1000 scheduler: class org.apache.hadoop.ipc.DefaultRpcScheduler
    2022-05-30 08:46:50,402 INFO org.apache.hadoop.ipc.Server: Starting Socket Reader #1 for port 9867
    2022-05-30 08:46:50,499 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Opened IPC server at /0.0.0.0:9867
    2022-05-30 08:46:50,510 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Refresh request received for nameservices: null
    2022-05-30 08:46:50,514 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Starting BPOfferServices for nameservices: <default>
    2022-05-30 08:46:50,521 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Block pool <registering> (Datanode Uuid unassigned) service to hadoop102/192.168.10.102:8020 starting to offer service
    2022-05-30 08:46:50,525 INFO org.apache.hadoop.ipc.Server: IPC Server Responder: starting
    2022-05-30 08:46:50,525 INFO org.apache.hadoop.ipc.Server: IPC Server listener on 9867: starting
    2022-05-30 08:46:50,676 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Acknowledging ACTIVE Namenode during handshakeBlock pool <registering> (Datanode Uuid unassigned) service to hadoop102/192.168.10.102:8020
    2022-05-30 08:46:50,678 INFO org.apache.hadoop.hdfs.server.common.Storage: Using 2 threads to upgrade data directories (dfs.datanode.parallel.volumes.load.threads.num=2, dataDirs=2)
    2022-05-30 08:46:50,681 INFO org.apache.hadoop.hdfs.server.common.Storage: Lock on /opt/module/hadoop-3.1.3/data/dfs/data/in_use.lock acquired by nodename 2777@hadoop102
    2022-05-30 08:46:50,682 WARN org.apache.hadoop.hdfs.server.common.Storage: Failed to add storage directory [DISK]file:/opt/module/hadoop-3.1.3/data/dfs/data
    java.io.IOException: Incompatible clusterIDs in /opt/module/hadoop-3.1.3/data/dfs/data: namenode clusterID = CID-6521df2b-56c9-4043-929d-01e57a85738e; datanode clusterID = CID-963fc533-014b-407e-a3cc-29021825ed8b
    	at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:744)
    	at org.apache.hadoop.hdfs.server.datanode.DataStorage.loadStorageDirectory(DataStorage.java:294)
    	at org.apache.hadoop.hdfs.server.datanode.DataStorage.loadDataStorage(DataStorage.java:407)
    	at org.apache.hadoop.hdfs.server.datanode.DataStorage.addStorageLocations(DataStorage.java:387)
    	at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:559)
    	at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1743)
    	at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1679)
    	at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:390)
    	at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:282)
    	at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:822)
    	at java.lang.Thread.run(Thread.java:748)
    2022-05-30 08:46:50,683 INFO org.apache.hadoop.hdfs.server.common.Storage: Lock on /opt/module/hadoop-3.1.3/data/dfs/data2/in_use.lock acquired by nodename 2777@hadoop102
    2022-05-30 08:46:50,683 WARN org.apache.hadoop.hdfs.server.common.Storage: Failed to add storage directory [DISK]file:/opt/module/hadoop-3.1.3/data/dfs/data2
    java.io.IOException: Incompatible clusterIDs in /opt/module/hadoop-3.1.3/data/dfs/data2: namenode clusterID = CID-6521df2b-56c9-4043-929d-01e57a85738e; datanode clusterID = CID-963fc533-014b-407e-a3cc-29021825ed8b
    	at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:744)
    	at org.apache.hadoop.hdfs.server.datanode.DataStorage.loadStorageDirectory(DataStorage.java:294)
    	at org.apache.hadoop.hdfs.server.datanode.DataStorage.loadDataStorage(DataStorage.java:407)
    	at org.apache.hadoop.hdfs.server.datanode.DataStorage.addStorageLocations(DataStorage.java:387)
    	at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:559)
    	at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1743)
    	at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1679)
    	at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:390)
    	at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:282)
    	at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:822)
    	at java.lang.Thread.run(Thread.java:748)
    2022-05-30 08:46:50,684 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid c2c33d95-c940-471a-89e0-e6b734140b06) service to hadoop102/192.168.10.102:8020. Exiting. 
    java.io.IOException: All specified directories have failed to load.
    	at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:560)
    	at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1743)
    	at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1679)
    	at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:390)
    	at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:282)
    	at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:822)
    	at java.lang.Thread.run(Thread.java:748)
    2022-05-30 08:46:50,684 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Ending block pool service for: Block pool <registering> (Datanode Uuid c2c33d95-c940-471a-89e0-e6b734140b06) service to hadoop102/192.168.10.102:8020
    2022-05-30 08:46:50,785 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Removed Block pool <registering> (Datanode Uuid c2c33d95-c940-471a-89e0-e6b734140b06)
    2022-05-30 08:46:52,785 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Exiting Datanode
    2022-05-30 08:46:52,788 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG: 
    /************************************************************
    SHUTDOWN_MSG: Shutting down DataNode at hadoop102/192.168.10.102
    ************************************************************/
    
  5. 定位日志错误

    日志按行分为四个级别:

    级别 意义
    INFO 框架正常运行的日志,一般不用管
    WARN 警告:需要提起注意的地方,如果其没有导致错误,可以不用管
    ERROR 错误:框架运行不正常,需要修复
    FATAL 致命错误:框架因为这个挂掉了

    如果需要排错,找ERROR和FATAL

    在我们的例子里面:错误是因为NN和DN的集群ID不一致导致

  6. 修复错误

    将NN的VERSION文件的clusterID改为和DN一致,重启集群

1701583318376

上课过程中常用的脚本

  1. xsync 集群文件同步脚本
xsync /opt/module/hadoop-3.1.3/etc/hadoop/
  1. xcall 集群执行指令【集群同步执行同一个命令】

    # 先安装pdsh
    sudo yum install -y epel-release
    sudo yum install -y pdsh
    
    # pdsh使用帮助
    pdsh -w 'hadoop102,hadoop103,hadoop104' 'jps'
    
    # 封装xcall脚本
    sudo vim /bin/xcall
    

    粘贴如下内容:

    #!/bin/bash
    pdsh -w 'hadoop102,hadoop103,hadoop104' "$*" | awk -F ":" '{temp=$1;$1=null;array[temp]=array[temp]$0"\n"}END{for (i in array) {print "===========  "i"  ============\n"array[i]}}'
    
    # 保存退出,增加执行权限
    sudo chmod +x /bin/xcall
    
  2. jpsall 快速查看三个节点的Java进程

    # 封装jpsall脚本
    sudo vim /bin/jpsall
    
    

    粘贴如下内容:

    #!/bin/bash
    xcall jps | grep -v Jps
    
    
    # 保存退出,增加执行权限
    sudo chmod +x /bin/jpsall
    
    

    历史服务器和日志聚集

    1. mapred-site.xml

      添加如下内容

        <!-- 历史服务器端地址 -->
        <property>
          <name>mapreduce.jobhistory.address</name>
          <value>hadoop102:10020</value>
        </property>
      
        <!-- 历史服务器web端地址 -->
        <property>
          <name>mapreduce.jobhistory.webapp.address</name>
          <value>hadoop102:19888</value>
        </property>
      
      
    2. yarn-site.xml

        <!-- 开启日志聚集功能 -->
        <property>
          <name>yarn.log-aggregation-enable</name>
          <value>true</value>
        </property>
        <!-- 设置日志聚集服务器地址 -->
        <property>  
          <name>yarn.log.server.url</name>  
          <value>http://hadoop102:19888/jobhistory/logs</value>
        </property>
        <!-- 设置日志保留时间为7天 -->
        <property>
          <name>yarn.log-aggregation.retain-seconds</name>
          <value>604800</value>
        </property>
      
      
    3. 同步配置文件

      xsync  /opt/module/hadoop-3.1.3/etc
      
      
    4. 重启集群,并启动历史服务器

      # 关闭集群
      stop-dfs.sh
      stop-yarn.sh
      
      # 启动集群
      start-dfs.sh
      start-yarn.sh
      
      
      # 手动启动历史服务器
      mapred --daemon start historyserver
      
      
    5. 再跑一个mapreduce,测试历史服务器工作是否正常

      hadoop fs -mkdir /input
      hadoop fs -put /opt/module/hadoop-3.1.3/LICENSE.txt /input
      
      
      # 提交新的mr程序
      hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output
      
      

      完成以后,在网页上查看刚刚跑过的mr程序的日志信息

1701585751656

集群时间同步

  1. NTP服务

    Network Time Protocol, 网络时间协议,是一个让本地计算机和网络上一台服务器时间保持一致的服务

    # 首先需要安装ntp服务
    sudo yum install -y ntp
    
    # 安装完成启动ntp服务
    sudo systemctl enable ntpd
    sudo systemctl start ntpd
    
    
  2. 手动和网络上的服务器进行时间对齐

    sudo ntpdate ntp.aliyun.com
    
    
    # 如果给三台服务器对时间
    sudo xcall 'ntpdate ntp.aliyun.com'
    
    
  3. 如果没有外部网络

    • 将102配置成能够提供时间同步服务的服务器

      # 首先需要安装ntp服务
      sudo yum install -y ntp
      
      # 安装完成启动ntp服务
      sudo systemctl enable ntpd
      sudo systemctl start ntpd
      
      
      # 配置102的ntp服务
      sudo vim /etc/ntp.conf
      
      

      修改如下位置

      #restrict 192.168.10.0 mask 255.255.255.0 nomodify notrap
      
      

      改为

      restrict 192.168.10.0 mask 255.255.255.0 nomodify notrap
      
      

      server 0.centos.pool.ntp.org iburst
      server 1.centos.pool.ntp.org iburst
      server 2.centos.pool.ntp.org iburst
      server 3.centos.pool.ntp.org iburst
      
      

      改为

      #server 0.centos.pool.ntp.org iburst
      #server 1.centos.pool.ntp.org iburst
      #server 2.centos.pool.ntp.org iburst
      #server 3.centos.pool.ntp.org iburst
      
      
      

      在任意位置添加

      server 127.127.1.0
      fudge 127.127.1.0 stratum 10
      
      
      

      保存退出,重启102的时间同步服务

      sudo systemctl restart ntpd
      
      
      
    • 103,104定期同步102时间

      # 在103和104设置定时任务
      sudo crontab -e
      
      
      

      添加

      * * * * * /usr/sbin/ntpdate hadoop102
      
      
      

      保存并退出

    • 改变103,104时间,看看能否自动纠正

      # 修改103,104时间
      sudo pdsh -w 'hadoop103,hadoop104' 'date -s "2011-01-01"'
      
      
      

节点状态诊断

  1. 联网状态

    • 外网

      ping -c 4 www.baidu.com
      
      

      如果出现类似下面的显示,就没问题

      PING www.a.shifen.com (110.242.68.3) 56(84) bytes of data.
      64 bytes from 110.242.68.3 (110.242.68.3): icmp_seq=1 ttl=128 time=10.2 ms
      64 bytes from 110.242.68.3 (110.242.68.3): icmp_seq=2 ttl=128 time=10.4 ms
      64 bytes from 110.242.68.3 (110.242.68.3): icmp_seq=3 ttl=128 time=10.3 ms
      64 bytes from 110.242.68.3 (110.242.68.3): icmp_seq=4 ttl=128 time=10.5 ms
      
      --- www.a.shifen.com ping statistics ---
      4 packets transmitted, 4 received, 0% packet loss, time 3005ms
      rtt min/avg/max/mdev = 10.262/10.401/10.542/0.144 ms
      
      
    • 内网

      ping -c 4 hadoop102
      ping -c 4 hadoop103
      ping -c 4 hadoop104
      
      
  2. 权限状态

    • atguigu的sudo权限

      sudo ls
      
      

      如果不会报错就没事

    • /opt/module文件夹的所有者和所属组

      ll /opt/module
      
      

      查看所有者和所属组

      总用量 4
      drwxrwxr-x.  4 atguigu atguigu 4096 5月  30 09:36 datas
      drwxr-xr-x. 12 atguigu atguigu  190 5月  30 08:45 hadoop-3.1.3
      drwxrwxr-x. 10 atguigu atguigu  184 5月  21 11:16 hive
      drwxr-xr-x.  7 atguigu atguigu  245 4月   2 2019 jdk1.8.0_212
      drwxrwxr-x.  8 atguigu atguigu  160 5月  18 14:22 zookeeper
      
      

      如果不对,用以下指令修复

      sudo chown -R atguigu:atguigu /opt/*
      
      
  3. 免密配置

    • 免密设置
    ssh-keygen -t rsa
    密钥对产生位置:账户目录
    id_rsa 私钥
    id_rsa.pub 公钥
    ssh-copy-id hadoop103
    
    
    • atguigu免密

      ssh hadoop102
      
      
  ```
    sudo ssh hadoop104
    exit
    ```
  
    如果登录不上,用root用户互相配置一下免密

集群启动步骤

  • 1)如果集群是第一次启动,需要在hadoop102节点格式化NameNode
    • 在hadoop的解压目录bin下
 hdfs namenode -format

HDFS

HDFS优点

1653909551077

  • 缺点

1653909586540

HDFS组成架构

1653909640321

一个datanode只能存一个副本

HDFS文件块的大小

1653909724884

2.3.2上传

1)-moveFromLocal:从本地剪切粘贴到HDFS

[atguigu@hadoop102 hadoop-3.1.3]$ vim shuguo.txt
输入:
shuguo
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs  -moveFromLocal  ./shuguo.txt  /sanguo

2)-copyFromLocal:从本地文件系统中拷贝文件到HDFS路径去

[atguigu@hadoop102 hadoop-3.1.3]$ vim weiguo.txt
输入:
weiguo
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -copyFromLocal weiguo.txt /sanguo

3)-put:等同于copyFromLocal,生产环境更习惯用put

[atguigu@hadoop102 hadoop-3.1.3]$ vim wuguo.txt
输入:
wuguo
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -put ./wuguo.txt /sanguo

4)-appendToFile:追加一个文件到已经存在的文件末尾

[atguigu@hadoop102 hadoop-3.1.3]$ vim liubei.txt
输入:
liubei

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -appendToFile liubei.txt /sanguo/shuguo.txt

2.3.3下载

1)-copyToLocal:从HDFS拷贝到本地

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -copyToLocal /sanguo/shuguo.txt ./

2)-get:等同于copyToLocal,生产环境更习惯用get

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -get /sanguo/shuguo.txt ./shuguo2.txt

2.3.4 HDFS直接操作

1)-ls: 显示目录信息

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -ls /sanguo

2)-cat:显示文件内容

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -cat /sanguo/shuguo.txt

3)-chgrp、-chmod、-chown:Linux文件系统中的用法一样,修改文件所属权限

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs  -chmod 666  /sanguo/shuguo.txt

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs  -chown  atguigu:atguigu  /sanguo/shuguo.txt

4)-mkdir:创建路径

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mkdir /jinguo

5)-cp:从HDFS的一个路径拷贝到HDFS的另一个路径

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -cp /sanguo/shuguo.txt /jinguo

6)-mv:在HDFS目录中移动文件

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/wuguo.txt /jinguo

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/weiguo.txt /jinguo

7)-tail:显示一个文件的末尾1kb的数据

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -tail /jinguo/shuguo.txt

8)-rm:删除文件或文件夹

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -rm /sanguo/shuguo.txt

9)-rm -r:递归删除目录及目录里面内容

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -rm -r /sanguo

10)-du统计文件夹的大小信息

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -du -s -h /jinguo
27  81  /jinguo
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -du  -h /jinguo
14  42  /jinguo/shuguo.txt
7  21  /jinguo/weiguo.txt
6  18  /jinguo/wuguo.tx

Java调用Hadoop

配好windows的Hadoop环境变量

加入以下依赖

<dependencies>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-client</artifactId>
        <version>3.1.3</version>
    </dependency>
    <dependency>
        <groupId>junit</groupId>
        <artifactId>junit</artifactId>
        <version>4.12</version>
    </dependency>
    <dependency>
        <groupId>org.slf4j</groupId>
        <artifactId>slf4j-log4j12</artifactId>
        <version>1.7.30</version>
    </dependency>
</dependencies>

用接口上传文件

public class HDFSClient { public static void main(String[] args) throws IOException, InterruptedException { FileSystem fileSystem=FileSystem.get( URI.create("hdfs://hadoop2:9820"), new Configuration(), "atguigu" ); fileSystem.copyFromLocalFile(new Path("F:\\BaiduNetdiskDownload\\2023年黑马程序员-大数据学习路线图.png"), new Path("/")); fileSystem.close(); } }

17017859001121701785903991

Java配置Hadoop

public class HDFSClient {

​	public static void main(String[] args) throws IOException, InterruptedException {

​		Configuration configuration=new Configuration();

​		configuration.set("dfs.replication", "1");//设置副本数1

​		FileSystem fileSystem=FileSystem.*get*(

​				URI.*create*("hdfs://hadoop2:9820"),

​				configuration,

​				"atguigu"

​				);

​		fileSystem.copyFromLocalFile(new Path("F:\\BaiduNetdiskDownload\\2023年黑马程序员-大数据学习路线图.png"), new Path("/input"));

​		fileSystem.close();

​	}

}

标签:hdfs,框架,hadoop,server,datanode,出错,apache,org,运行
From: https://www.cnblogs.com/seron/p/17883954.html

相关文章

  • beego框架 golang web项目-个人博客系统
    beego框架golangweb项目-个人博客系统beego个人博客系统功能介绍首页分页展示博客博客详情评论文章专栏分类导航资源分享时光轴点点滴滴关于本站后台管理登录系统设置分类添加修改删除管理博文添加修改删除管理基于Go语言和beego框架前端使用layui布局开发的......
  • 小程序建立用户与数据的联系,运行代码后报错如何解决?
    要解决小程序建立用户与数据联系后出现的报错,您可以按照以下步骤进行排查和解决:检查报错信息:仔细阅读报错信息,了解出错的位置和具体的错误提示。这可以帮助您定位问题所在。检查代码逻辑:仔细检查您的代码逻辑,特别是涉及用户与数据关联的部分。确保代码中没有语法错误、逻辑错误或者......
  • java 单元测试之 - Spring框架提供的单元/集成测试注解
    java单元测试之-Spring框架提供的单元/集成测试注解Spring框架提供了很多注解来辅助完成单元测试和集成测试(备注:这里的集成测试指容器内部的集成测试,非系统间的集成测试),先看看Spring框架提供了哪些注解以及对应的作用。@RunWith(SpringRunner.class)/@ExtendWith(Spring......
  • 分布式资源调度框架YARN
    1、YARN=YetAnotherResourceNegotiator2、主从架构,一主多从3、主=ResourceManager,从=NodeManager4、ResourceManager由ApplicationManager和ResourceScheduler组成5、NodeManager的核心组件包括ApplicationMaster和Container6、工作流程分为五个阶段:(1)作业提交阶段(2)作业初始化......
  • java打包好的jar包在Linux服务器上指定端口并后台运行命令
    前提条件:a.已经在Linux服务器上安装了java环境。b.切换到jar包所在的目录下。c.运行方式为:java-jar运行。举例说明:包名  运行端口test.jar  8080命令如下:java-jar-Dserver.port=8080test.jar&>test.out&1解释:1.表示将test.jar这个jar包运行在8080端口(前提是端口......
  • 运行 jar 程序
    运行jar程序运行jar程序一、java.exe启动jar程序 (会显示console黑窗口)1、一般用法:java-jarXXX.jarjava-server-Xms1024m-Xmx20480m-jar$JAR_NAME.jar2、重命名进程名称启动:@echooffcopy"%JAVA_HOME%\bin\java.exe""%JAVA_HOME%\bin\myProcess.ex......
  • BAT检测Windows服务停止后自动启动?系统自动运行.bat文件?
    作者:西瓜程序猿主页传送门:https://www.cnblogs.com/kimiliucn前言想要确保你的Windows服务即使在崩溃后也能自动重启吗?这篇文章教你如何用一个小巧的批处理脚本来实现这一点。教你怎么设置定时检查,如果发现服务挂了,就立刻拉起来。跟着步骤做,让你的服务稳定运行不再是难题!......
  • 高级实现Java的七大热门技术框架解析源码特性分析
    设计模式是软件开发中常用的解决方案,可以帮助我们构建灵活可扩展的应用程序。本文将深入探讨Java的七大经典设计模式,并提供相关示例代码。一、单例模式单例模式确保一个类只有一个实例,并提供全局访问点。以下是一个简单的单例模式示例代码:publicclassSingleton{privatesta......
  • Maven 环境变量配置 'mvn' 不是内部或外部命令,也不是可运行的程序或批处理文件
    在cmd里面输入对应的mvn命令出现了这行提示,说明你的maven环境变量配置有问题,需要重新配置1、添加M2_HOME和MAVEN_HOME在系统变量里面添加M2_HOME和MAVEN_HOME,都指向你的本地maven安装路径 2、添加用户变量PATH中3、校验在cmd中输入mvn-version出现你对应的maven......
  • .NET 6 (C#) Microsoft.Extensions.Logging 日志框架的使用
    .NET6中的日志框架主要是基于Microsoft.Extensions.Logging,这是一个通用的、可扩展的日志记录接口,允许使用不同的日志提供程序(例如控制台、文件、第三方库等)进行日志记录。本文主要介绍.NET6(C#)中Microsoft.Extensions.Logging日志框架的使用,以及相关的示例代码。1......