1.java.lang.RuntimeException: Can't parse input data: '119.131.143.179
这种报错大概率是你的hive数据库中有空格或者换行导致的,无法把数据导出到mysql中,网上搜集的到的方法反正是我没看懂,所以我换了一个表(没有空格的)就没问题了
2.ERROR tool.BaseSqoopTool: Error parsing arguments for export:
这种情况是你的导出语句写的有错误,可能多一个符号少一个符号什么的,仔细检查一下sqoop语句,或者一句句复制粘贴或者重新敲一遍,大概率就没问题了
3.org.apache.hadoop.mapreduce.lib.input.InvalidInputException: Input path does not exist: hdfs://192.168.80.132:9002/user/hive/warehouse/result3
这种情况是你hive数据的路径有误,仔细检查路径中的文件夹名和表名
4. ERROR mapreduce.TextExportMapper: Dumping data is not allowed by default, please run the job with -Dorg.apache.sqoop.export.text.dump_data_on_error=true to get corrupted line.
把
> --input-fields-terminated-by ","
换成
--input-fields-terminated-by "\001"
标签:导出,hive,报错,mysql,input,data From: https://www.cnblogs.com/rongzhang/p/16804778.html