首页 > 其他分享 >我遇到的hadoop错误和解决方法汇总

我遇到的hadoop错误和解决方法汇总

时间:2023-07-13 21:07:36浏览次数:48  
标签:插件 错误 汇总 eclipse hadoop hive 修改 报错


 

==================================

windows cygwin环境下,遇到这个错误:org.apache.hadoop.security.AccessControlException: Permission denied: user=cyg_server, access=EXECUTE, inode="job_201010161322_0003":heipark:supergroup:rwx------

 

解决:刚开始还使用“./bin/hadoop dfs -chmod 777 ”,后来发现老是这样设置麻烦。可以取消hadoop hdfs的用户权限检查。打开conf/hdfs-site.xml,找到dfs.permissions属性修改为false(默认为true)OK了。注意生产环境处于安全考虑不要这么搞。

 

==================================

window下使用eclipse开发hadoop程序遇到的问题。

现象一:“DFS Locations”无法浏览DFS中文件,报错

Cannot connect to the Map/Reduce location: heipark
Call to localhost/127.0.0.1:9000 failed on local exception: java.io.EOFException

现象二:启动自己编写的mapred程序报相同错误。

 

原因:Hadoop服务端版本和eclipse插件版本不一致

 

解决:倒腾了好几个版本eclipse和hadoop插件,有的点击没反应,不能浏览文件系统。最后整理了一下有两个办法:

一:自己编译eclipse plugin(自己尝试编译0.21.0版本没有成功。首选遇到包的依赖问题,接着编译成功后,eclipse右键创建还是没有响应)

二:我使用0.21.0自带的eclipse plugin在多个eclipse都不好用,在网上下了一个可以3.3,,3.4,3.5都可以跑的hadoop-0.20.3-dev-eclipse-plugin.jar(http://code.google.com/p/hadoop-eclipse-plugin/downloads/list),但是报上面的错误,有网友说是插件和hadoop版本不一致导致的。最后我下载了一个0.20.2版本hadoop,使用自带的插件在eclipse3.3.2下完美运行。

 

==================================

Namenode报错:“jobtracker.info could only be replicated to 0 nodes, instead of 1”

DateNode报错java.io.IOException: Incompatible namespaceIDs错误

 

原因:由于DateNode一段时间未启动,再次启动与NameNode数据不同步导致。

 

解决一:修改/dfs/data/current/VERSION文件中namespaceID值,保证NameNode和DateNode一致。修改原则:如果你有多个DateNode需要都需要修改,那就修改NameNode;否则就修改NameNode。总之就是最小化修改原则。这样修改不会删除数据,推荐。

 

解决二:删除有问题datenode的data文件夹,然后format namenode。

参考:http://forum.hadoop.tw/viewtopic.php?f=4&t=43

 

==================================

在windows eclipse开发环境提交job到远处linux hadoop集群,运行mapred报错“IOException: Cannot run program "chmod": CreateProcess error=2

 

原因:安装cygwin,而且需要设置"cygwin\bin"到环境变量PATH中

 

==================================

运行hive0.6.0报如下错误:

Invalid maximum heap size: -Xmx4096m
The specified size exceeds the maximum representable size.
Could not create the Java virtual machine.

修改“hive-0.6.0/bin/ext/util/execHiveCmd.sh”

 

HADOOP_HEAPSIZE=4096

HADOOP_HEAPSIZE=256

 

==================================

使用java client运行hive官方《 Getting Started Guide》中apachelog例子报错:

 

ClassNotFoundException: org.apache.hadoop.hive.contrib.serde2.RegexSerDe

 

hive没有找到hive-contrib-0.7.0.jar吗?这个jar明明在lib下,解决办法如下:

 

    vi hive-default.xml 

 

<property> 
 
 <name>hive.aux.jars.path</name> 
 
 <value>file:///home/hadoop/hive-0.7.0/lib/hive-contrib-0.7.0.jar</value> 
 
</property>


再次启动Hive Thrift Server,OK了。

 

参考资料:http://web.archiveorange.com/archive/v/S2z2uyzt6K4HGoJJbSUy 

 

标签:插件,错误,汇总,eclipse,hadoop,hive,修改,报错
From: https://blog.51cto.com/u_16187922/6715565

相关文章

  • hadoop eclipse插件的不错入门文章
    基于Eclipse的Hadoop应用开发环境的配置http://blog.sina.com.cn/s/blog_537770820100byho.html?retcode=0  Hadoop学习-7Eclipse运行hadoop(解决错误)http://sunjun041640.blog.163.com/blog/static/25626832201061751825292/  搭建基于Eclipse的Hadoop测试环境http://www.tech......
  • Tomcat中配置自定义404错误页面
    (1)%CATALINA_HOME%\conf\web.xml中web-app节点中添加<error-page><error-code>404</error-code><location>/404.html</location></error-page>在webapps下ROOT新增404.html页面<htmllang="en"><head&g......
  • c++ 段错误(核心已转储)
    一、什么是段错误?段错误应该就是访问了不可访问的内存,这个内存区要么是不存在的,要么是受到系统保护的,还有可能是缺少文件或者文件损坏。二、段错误产生的原因1、访问不存在的内存地址#include<iostream>#include<algorithm>#include<vector>#include<stdio.h>#include<st......
  • startapp时出现 CommandError错误
    startapp时出现CommandError:'xxxxx'conflictswiththenameofanexistingPythonmoduleandcannotbeusedasanappname.Pleasetryanothername.错误原因可能是在settings.py中加入了sys.path.append(os.path.join(BASE_DIR,'app'))解决办法,先将上面这行代码......
  • hadoop性能调优笔记
    Hadoop调优mapred.tasktracker.map.tasks.maximum 官方解释:Themaximumnumberofmaptasksthatwillberun  simultaneouslybyatasktracker. 我的理解:一个tasktracker最多可以同时运行的map任务数量 默认值:2 优化值:mapred.tasktracker.map.tasks.maximum=cpu数量 ......
  • hadoop相关端口说明
    http相关端口:DaemonDefaultPortConfigurationParameterHDFSNamenode50070dfs.http.addressDatanodes50075dfs.datanode.http.addressSecondarynamenode50090dfs.secondary.http.addressBackup/Checkpointnode❋50105dfs.backup.http.addressMapReduceJobracker50030mapred.job.......
  • 解析 bin/hadoop 文件
     $HADOOP_HOME/bin/hadoop文件是Hadoop主要shell脚本,它提供格式化HDFS、恢复namenode、HDFSShell、任务提交等诸多功能,它的执行语句在最后一行,如下: exec"$JAVA"$JAVA_HEAP_MAX$HADOOP_OPTS-classpath"$CLASSPATH"$CLASS"$@" 下面是这几个变量的说明: $JAVA $......
  • Jmeter(一)使用Jmeter导入jmx文件时,报CannotResolveClassException错误
    报CannotResolveClassException错误错误的解决办法:ProblemloadingXMLfrom:‘xxx.jmx’.Cause:CannotResolveClassException:kg.apc.jmeter.threads.SteppingThreadGroupDetail:com.thoughtworks.xstream.converters.ConversionException:----Debugginginformation----caus......
  • PYTHON随笔-打印错误堆栈
    PYTHON随笔-打印错误堆栈importsysimporttracebackdefprint_traceback():'打印通常的回溯信息,且附有每帧中的局部变量的列表'tb=sys.exc_info()[2]#返回当前异常的(type,value,traceback)whiletb.tb_next:tb=tb.tb_next#栈中的下一个trac......
  • 怎么切换hadoop用户 来解决一个具体问题的方案
    如何切换hadoop用户在Hadoop集群中,切换hadoop用户是非常常见的操作。Hadoop用户是一个特殊的系统用户,用于执行Hadoop的各种任务和操作。本文将介绍如何在Linux系统中切换到hadoop用户,并给出一个实际的问题解决示例。问题背景假设我们的Hadoop集群上有一个用户叫做"admin","admin"......