首页 > 其他分享 >hudi-0.12 编译与集成

hudi-0.12 编译与集成

时间:2023-09-09 19:24:17浏览次数:43  
标签:5.3 hudi jar 编译 install 0.12 spark

环境 hadoop:2.7.2  hive:2.3.1  spark:2.4.4  flink:1.13.0

1.下载hudi源码包

Index of /dist/hudi/0.12.0 (apache.org)  hudi-0.12.0.src.tgz

tar -zxf hudi-0.12.0.src.tgz -C /hadoop/app/

2.安装maven

tar -zxf apache-maven-3.6.1.tar.gz

配置settings

<mirror>
<id>aliyunmaven</id>
<mirrorOf>*</mirrorOf>
<name>阿里云公共仓库</name>
<url>https://maven.aliyun.com/repository/public</url>
</mirror>

配置maven环境变量

vim /etc/profile

export MVN_HOME=/hadoop/app/apache-maven-3.6.1

export PATH=$PATH:$JAVA_HOME:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$MYSQL_HOME/bin:$HIVE_HOME/bin:$FLINK_HOME/bin:$ES_HOME/bin:$MVN_HOME/bin

3.在hudi安装目录下执行编译命令

cd /hadoop/app/hudi-0.12.0

mvn clean package -DskipTests -Dspark2.4 -Dflink1.13 -Dscala-2.11 -Dhadoop.version=2.7.2 -Pflink-bundle-shade-hive2

当出现参数异常时,直接修改对应的java文件即可

手动添加kafka依赖 注:需要的jar包可以在

http://packages.confluent.io/archive/5.3/confluent-5.3.4-2.12.zip 下载 

上传到Linux服务器/hadoop/app/soft/hudi_needs_jar

cd hadoop/app/soft/hudi_needs_jar

mvn install:install-file -DgroupId=io.confluent -DartifactId=common-config -Dversion=5.3.4 -Dpackaging=jar -Dfile=./common-config-5.3.4.jar
mvn install:install-file -DgroupId=io.confluent -DartifactId=common-utils -Dversion=5.3.4 -Dpackaging=jar -Dfile=./common-utils-5.3.4.jar
mvn install:install-file -DgroupId=io.confluent -DartifactId=kafka-avro-serializer -Dversion=5.3.4 -Dpackaging=jar -Dfile=./kafka-avro-serializer-5.3.4.jar
mvn install:install-file -DgroupId=io.confluent -DartifactId=kafka-schema-registry-client -Dversion=5.3.4 -Dpackaging=jar -Dfile=./kafka-schema-registry-client-5.3.4.jar

其中编译期间还需要pentaho-aggdesigner-algorithm-5.1.5-jhyde.jar 

可以在我的百度网盘下载

链接:https://pan.baidu.com/s/1V_sZzVePTexfq4A8wI3OMQ
提取码:66sw
下载后在jar包路径下执行命令

cd hadoop/app/soft/hudi_needs_jar

mvn install:install-file -DgroupId=org.pentaho -DartifactId=pentaho-aggdesigner-algorithm -Dversion=5.1.5-jhyde -Dpackaging=jar -Dfile=./pentaho-aggdesigner-algorithm-5.1.5-jhyde.jar

4.与spark集成  

将/hadoop/app/hudi-0.12.0/packaging/hudi-spark-bundle/target/hudi-spark2.4-bundle_2.11-0.12.0.jar 复制到spark 的jars目录下

cp /hadoop/app/hudi-0.12.0/packaging/hudi-spark-bundle/target/hudi-spark2.4-bundle_2.11-0.12.0.jar /hadoop/app/spark-2.4.4-bin-hadoop2.7/jars/

spark-shell --master local  --jars hudi-spark2.4-bundle_2.11-0.12.0.jar --packages org.apache.spark:spark-avro_2.11:2.4.4 --conf 'spark.serializer=org.apache.spark.serializer.KryoSerializer' --conf 'spark.serializer=org.apache.spark.serializer.KryoSerializer' 

后期参考Spark2.4-cdh6.2.1集成hudi0.10初探 - Shydow - 博客园 (cnblogs.com) 测试集成环境。

 

标签:5.3,hudi,jar,编译,install,0.12,spark
From: https://www.cnblogs.com/hxy0001/p/17690007.html

相关文章

  • cmake基础示例:如何编译【跨平台】的动态库和应用程序
    示例代码首先看一下测试代码的全貌:mylib:只有一个源文件,编译输出一个动态库;myapp:也只有一个源文件,链接mylib动态库,编译输出一个可执行程序; mylib在mylib目录中,一共有3个文件:mylib.h,mylib.c以及CMakeLists.txt,内容分别如下://mylib/mylib.hw文件#ifndef_M......
  • ebpf-使用内核编译开发一个程序(ubuntu20.04)
    前不久正好工作中使用到了这个方面的知识,这里写一下我的总结我对ebpf的理解ebpf(extendedBerkeleyPacketFilter)是一种虚拟机,通常我们使用的vmware是一种大型的虚拟机,vmware里面可以模拟cpu、显卡、网卡、硬盘等硬件,而ebpf这种的虚拟机是只模拟栈的小型的虚拟机,jvm也是一种栈......
  • 编译程序和解释程序
         ......
  • C-条件编译、头文件
    一、条件编译根据条件(表达式的值或者特定的宏的值)决定让代码是否参与最终的编译查看预处理的结果:gcc-Ecode.c 把预处理的结果显示到终端gcc-Ecode.c-ocode.i把预处理的结果存储到.i预处理文件1、常见的条件编译指令指令#if如果条件为真,则执行相应的操作......
  • rdkafka编译
    1、下载源码rakafka源码https://github.com/confluentinc/librdkafka 2、安装openssl,可以参考https://www.cnblogs.com/ho966/p/15916018.html3、如果要支持gssapi,需要依赖cyrus-sasl和krb53.1安装krb5下载源码https://kerberos.org/dist/krb5/1.20/krb5-1.2......
  • 安防教育直播项目应用中RTSPSever组件libEasyRTSPServer编译arm版本报undefined refer
    大家知道我们团队编译过很多产品的ARM版本,对用户来说,多一种编译方式也是多一种选择,所以我们一直在拓宽TSINGSEE青犀视频全线产品的运用范围。近期TSINGSEE青犀视频研发团队编译了libEasyRTSPServer的ARM版本,在此过程中,我们遇到了编译错误undefinedreferenceto`uselocale’。libE......
  • MacOs环境反编译微信小程序
    条件:mac版微信版本大于3.8.0的(无需解*密,下面直接反编译)使用node版本的wxappUnpacker解*密工具(https://github.com/geilige/wxappUnpacker)步骤:打开微信小程序,点点点点点点(尽量点全)默认存放小程序的路径/Users/用户名/Library(资源库)/Containers/com.tencent.xinWeChat(微信)/Data/.wxap......
  • gcc 常见编译参数
    -c只激活预处理,编译,和汇编-S只激活预处理和编译-E只激活预处理-C在预处理的时候,不删除注释信息-g只是编译器,产生调试信息。-o制定目标名称-w不生成任何警告信息。-M生成文件关联的信息。......
  • Apktool编译时报error: No resource identifier found for attribute XXX in package
    问题描述使用apktool编译android源码时,报W:XXX.xml:X:error:Noresourceidentifierfoundforattribute'iconTint'inpackage'android'错误。解决方案这是由于API版本较低。处理方法:找到相应文件,把对应的属性删除掉,再重新编译。......
  • qt程序调用cuda-11.7,cmake编译时,提示:"CMakeCUDACompilerId.cu" failed. Compiler:
    报错显示:Running/home/wc/software/cmake-3.26.3-linux-x86_64/bin/cmake/home/wc/work/junke_src/missile-sim'-GCodeBlocks-UnixMakefiles'in/home/wc/work/junke_src/build/debug.CMakeErrorat/home/wc/software/cmake-3.26.3-linux-x86_64/share/cmak......