首页 > 其他分享 >Spark任务提交到Yarn状态一直是Accepted

Spark任务提交到Yarn状态一直是Accepted

时间:2023-08-25 23:47:13浏览次数:41  
标签:mapper vg -- space Yarn lv ubuntu Spark Accepted

现象

今天提交 Spark 任务到 Yarn 集群,但是任务状态一直是 Accepted:

23/08/25 14:59:55 INFO Client: Application report for application_1692971614101_0018 (state: ACCEPTED)

原因

前端时间也遇到这个问题,是因为 Yarn 集群健康节点是 0,不健康的节点点进详情显示:

1/1 local-dirs usable space is below configured utilization percentage/no more usable space [ /opt/hadoop/hadoop-3.2.4/tmp/nm-local-dir : used space above threshold of 90.0% ] ;
1/1 log-dirs usable space is below configured utilization percentage/no more usable space [ /opt/hadoop/hadoop-3.2.4/logs/userlogs : used space above threshold of 90.0%

磁盘空间不足。
ubuntu--vg-ubuntu--lv(因为 /tmp 目录在这个磁盘上?)

解决方案

扩容 ubuntu--vg-ubuntu--lv

  1. vgdisplay 查看磁盘信息
  2. 扩容命令:
lvextend -L 10G /dev/mapper/ubuntu--vg-ubuntu--lv      //增大或减小至19G
lvextend -L +10G /dev/mapper/ubuntu--vg-ubuntu--lv     //增加10G
lvreduce -L -10G /dev/mapper/ubuntu--vg-ubuntu--lv     //减小10G
lvresize -l  +100%FREE /dev/mapper/ubuntu--vg-ubuntu--lv   //按百分比扩
  1. 执行命令
resize2fs /dev/mapper/ubuntu--vg-ubuntu--lv
  1. 确认修改后的容量:
vgdisplay

内容参考:

知乎-如何扩大ubuntu的ubuntu--vg-ubuntu--lv空间

标签:mapper,vg,--,space,Yarn,lv,ubuntu,Spark,Accepted
From: https://www.cnblogs.com/chenxii81/p/17658194.html

相关文章

  • Hadoop 和 Spark 简介
    Hadoop和Spark简介Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop过去一直是大数据的经典解决方案,它包含两个部分:HadoopHDFS和HadoopMapReduce,分别是......
  • Docker下spark环境搭建
    RUNecho"InstallSpark"&&\wget-O/tmp/spark-2.3.4-bin-hadoop2.6.tgzhttp://mirror.bit.edu.cn/apache/spark/spark-2.3.4/spark-2.3.4-bin-hadoop2.6.tgz&&\cd/tmp/&&\tar-zxvf/tmp/spark-2.3.4-bin-hado......
  • spark配置文件介绍
    spark配置文件介绍spark有很多参数,然后会有不同的配置文件,这里做一下介绍,也供自己以后查询。1.sparkproperties:这个可以控制应用程序的绝大部分属性。并且可以通过SparConf对象挥着Java系统属性进行配置;2.环境变量(Environmentvariable):这个可以分别对每台机器单独进行相应设置,比......
  • 【HDP】jupyter配置pyspark
    source/usr/hdp/3.3.1.0-002/spark2/bin/load-spark-env.shnohupjupyternotebook--no-browser--port18888--ip0.0.0.0--allow-root--NotebookApp.token=root>jupyter.log2>&1& 关闭INFO级别日志$SPARK_HOME/conf/log4j.propertieslog4j.rootCate......
  • HadoopYarn模式集群安装
    Hadoop集群安装步骤1.Hadoop集群安装1.1环境说明集群:三台Linux机器(SUSE);JDK1.8(提前下载好对应的tar.gz)Hadoop2.7.2(提前下载好对应的tar.gz)以下所有配置需要在每个主机上进行,但按照本文配置,可配置一个以后复制过去,完全相同,不用修改。1.2同步时......
  • apache spark connect 试用
    sparkconnect3.4开始就支持了connect模式,3.4.1比较稳定了connectserver启动实际上就是一个spark引用,通过spark_submit提交到spark环境中启动./sbin/start-connect-server.sh--packagesorg.apache.spark:spark-connect_2.12:3.4.1查看效果......
  • spark on k8s 开发部署简单实践
    实际上就是一个简单的实践,方便参考,对于开发以及运行,集成ci/cd以及dophinscheduler任务调度为了方便开发的spark应用共享以及使用基于s3进行文件存储(当然dophinscheduler也是支持自己的资源库的)参考图 玩法说明基于gitlab进行代码管理,通过ci/cd进行sparkapp的构建,同......
  • 大数据技术Spark之RDD基础编程
    大数据技术Spark之RDD基础编程RDD(ResilientDistributedDataset)叫做弹性分布式数据集,是Spark中最基本的数据处理模型。代码中是一个抽象类,它代表一个弹性的、不可变、可分区、里面的元素可并行计算的集合。一、RDD的两种创建方式从集合(内存)中创建RDD从集合中创建RDD,Sp......
  • Spark安装的配置相关步骤
    1、Spark下载地址:https://archive.apache.org/dist/spark/选择自己适合的版本:点击下载即可:等待下载完成;2、将下载好的压缩包放到虚拟机的/root/software文件目录下面3、将放好位置的压缩包在该目录下解压tar-zxvfspark-2.3.4-bin-hadoop2.7.tgz解压成功:4、编辑spar......
  • Hadoop学习笔记、知识点搭建速过、包含Hadoop集群搭建、HDFS、IDE操作hadoop,DFSShell
    大数据概述......