首页 > 编程语言 >Spark提交程序到Yarn任务状态一直为Accepted

Spark提交程序到Yarn任务状态一直为Accepted

时间:2023-08-12 18:55:38浏览次数:55  
标签:usable space hadoop yarn Yarn scheduler Spark Accepted

正在学习《Spark快速大数据分析》第七章-在集群上运行Spark,写了一个单词数量统计的Spark程序提及到Yarn,但是状态一直是Accepted,等待运行。

1、排查了Yarn资源调度器配置,配置的是公平配置,确认无问题

<property>
	<name>yarn.scheduler.fair.allocation.file</name>
	<value>/opt/hadoop/hadoop-3.2.4/etc/hadoop/fair-scheduler.xml</value>
</property>
<property>
	<name>yarn.resourcemanager.scheduler.class</name>
	<value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
</property>
<property>
	<name>yarn.nodemanager.resource.memory-mb</name>
	<value>20480</value>
</property>
<property>
	<name>yarn.scheduler.minimum-allocation-mb</name>
	<value>100</value>
</property>
<property>
	<name>yarn.nodemanager.vmem-pmem-ratio</name>
	<value>2.1</value>
</property>
<property>
	<name>yarn.nodemanager.resource.cpu-vcores</name>
	<value>20</value>
</property>
<?xml version="1.0"?>
<allocations>
  <queue name="default">
    <minResources>100mb,1vcores</minResources>
    <maxResources>20480mb,20vcores</maxResources>
    <weight>1</weight>
    <schedulingPolicy>fifo</schedulingPolicy>
  </queue>
  <queuePlacementPolicy>
          <rule name="specified" create="false"></rule>
          <rule name="primaryGroup" create="false"></rule>
          <rule name="user" create="false"></rule>
          <rule name="default" queue="default"></rule>
  </queuePlacementPolicy>
</allocations>

2、在网上搜了一下类似的问题,发现有人是因为yarn resourcemanager或者nodemanager 未启动导致的,通过 jps 命令可以确认相关进程已存在。然后检查yarn管理页面的集群节点状态时发现“Active Node”数量是0,“Unhealthy Node”的数量是1,点进去查看详情:
image
日志显示:

1/1 local-dirs usable space is below configured utilization percentage/no more usable space [ /opt/hadoop/hadoop-3.2.4/tmp/nm-local-dir : used space above threshold of 90.0% ] ;
1/1 log-dirs usable space is below configured utilization percentage/no more usable space [ /opt/hadoop/hadoop-3.2.4/logs/userlogs : used space above threshold of 90.0%

问题的原因就找到了:磁盘空间不足

在虚拟机中删除一些文件,剩余空间大于3g之后,重新启动 hdfs 和 yarn ,再重新提交任务就成功完成了。

spark-submit --class com.chenxii.myspark.sparkcore.ch7.WordCountV2 --master yarn --queue default spark-core-1.1.0.jar

image

标签:usable,space,hadoop,yarn,Yarn,scheduler,Spark,Accepted
From: https://www.cnblogs.com/chenxii81/p/17625267.html

相关文章

  • pyspark小案例
    ##py_pyspark_demo.py#py_learn##CreatedbyZ.Steveon2023/8/1215:33.##统计文件中各个单词出现的次数#1.导入库frompysparkimportSparkConf,SparkContext#2.创建SparkConf对象和SparkContext对象conf=SparkConf().setMaster("local......
  • pyspark使用
    ##py_pyspark.py#py_learn##CreatedbyZ.Steveon2023/8/1017:51.##pyspark编程主要分三步:1.数据输入。2.数据处理。3.数据输出。#RDD:ResilientDistributedDatasets弹性分布式数据集#1.安装pyspark库#pip3installpyspark#2.导入p......
  • Spark 快速入门
    Spark快速入门目录[−]使用Spark进行交互式分析基本操作更多的RDD操作缓存独立应用深入了解本教程快速介绍了Spark的使用。首先我们介绍了通过Spark交互式shell调用API(Python或者scala代码),然后演示如何使用Java,Scala或者Python编写独立程序。你可以查看Spark编程指南了......
  • spark社区bug
    1.SPARK-26114repartitionAndSortWithinPartitions后合并时PartitionedPairBuffer的内存泄漏   原因这个Spark源码的issue描述了在使用coalesce操作合并分区时可能会导致PartitionedPairBuffer内存泄漏的问题。具体来说,当在使用repartitionAndSortWithinPartitions操作进......
  • Spark安装(黑马程序员文档)
    SparkLocal环境部署下载地址Sparkhttps://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-3.4.1/Anacondahttps://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/?C=M&O=A条件PYTHON推荐3.8JDK1.8AnacondaOnLinux安装本次课程的Python环境需要安装到Linux......
  • hadoop组件---spark实战-----airflow----调度工具airflow定时运行任务的理解
    我们在前面已经初步了解了airflow:hadoop组件—spark实战-----airflow----调度工具airflow的介绍和使用示例但是我们开始尝试使用airflow的定时任务的时候,常常遇到一个尴尬的情况,任务没有成功运行,或者说设置开始时间是今天,但是明天才开始运行。本篇文章尝试说明其中的......
  • hadoop组件---spark实战-----airflow----调度工具airflow部署到k8s中使用
    在之前的文章中我们已经了解了airflow和它的工作原理。hadoop组件—spark实战-----airflow----调度工具airflow的介绍和使用示例Scheduler进程,WebServer进程和Worker进程需要单独启动。Scheduler和WebServer可以跑在一个操作系统内,也可以分开,而通常Worker需要很多,如果是部署特定......
  • hadoop组件---spark实战-----airflow----调度工具airflow的介绍和使用示例
    Airflow是什么Airflow是一个可编程,调度和监控的工作流平台,基于有向无环图(DAG),airflow可以定义一组有依赖的任务,按照依赖依次执行。airflow提供了丰富的命令行工具用于系统管控,而其web管理界面同样也可以方便的管控调度任务,并且对任务运行状态进行实时监控,方便了系统的运维和管理,......
  • 数据挖掘(五) -----基于Spark的可伸缩基因数据分析平台开源存储运算架构hail全面了解
    hail简介hail是一个开源的、通用的、面向python数据类型的处理基因数据专用的分析库和方法解决方案。hail的存在是为了支持多维度的复杂的数据结构,比如全基因组关联数据研究(GWAS).GWASTutorialhail的底层是通过python,scala,java和apachespark来实现的。hail官网gitlab官方文......
  • Apache Spark
    .NETforApacheSpark™|大数据分析(microsoft.com) dotnet/spark:.NETforApache®Spark™makesApacheSpark™easilyaccessibleto.NETdevelopers.(github.com) 使用.NET5体验大数据和机器学习(qq.com)......