1、首先在目标库建立相同的表 ,加载数据路径要符合环境目录。
2、将生产数据下载到本地hadoop dfs -get /user/hive/warehouse/dw.db/表名/d_1=20230112 /tmp/hivedata
3、将其打包成tar.gz 传到目标服务器解压
4、将解压文件上传到目标目录hadoop dfs -put ./d_1\=20230112/ /user/hive/warehouse/dw.db/dwd_suiz_d004_data_di
5、在hive中修复分区MSCK REPAIR TABLE 表名;
6、查询ok over
标签:ip,db,hadoop,dfs,hive,表名,不通 From: https://www.cnblogs.com/shuaidong/p/17057877.html