首页 > 其他分享 >apache-paimon初体验 (hive用法待完善)

apache-paimon初体验 (hive用法待完善)

时间:2023-09-19 18:24:59浏览次数:37  
标签:初体验 flink jar hive apache table paimon

1.官网

https://paimon.apache.org/docs/master/engines/hive/

4.运行yarnsession 创建Application-Name,并修改配置文件


 ./bin/yarn-session.sh  -nm flink-sql -d   

拿到对应的applicationID信息配置到conf文件里


yarn app -list
application_1695101257942_0001

配置文件增加配置 flink-conf.yaml


execution.target: yarn-session
yarn.application.id: application_1695101257942_0001
[root@hadoops108 bin]# ./sql-client.sh 
#创建CATALOG,warehouse相当于在hdfs创建的目录即hive数据库名称
CREATE CATALOG paimon_hive WITH (
  'type' = 'paimon',
  'metastore' = 'hive',
  'uri' = 'thrift://hadoopm111:9083',
  'warehouse' = 'hdfs:///apps/hive/paimon'
);

#使用CATALOG 
USE CATALOG paimon_hive;

#创建paimon目录下的表结构
CREATE TABLE paimon.test_paimon_table (
  a int,
  b string
);

插入数据
INSERT INTO paimon.test_paimon_table VALUES (3, 'Paimon');
INSERT INTO paimon.test_paimon_table VALUES (4, 'Paimon');
INSERT INTO paimon.test_paimon_table VALUES (4, 'Paimon');

HDFS文件变化

2.hive客户端数据查询

#查数据需要加order by 否则会报错
SELECT * FROM paimon.test_paimon_table ORDER BY a;

6.实验遇到的报错

#报错1
cannot assign instance of java.util.LinkedHashMap to field org.apache.flink.runtime.jobgraph.JobVertex.results of type java.util.ArrayList in instance of org.apache.flink.runtime.jobgraph.InputOutputFormatVertex

#解决办法
mv $FLINK_HOME/opt/flink-table-planner_2.12-1.17.1.jar $FLINK_HOME/lib/flink-table-planner_2.12-1.17.1.jar
mv $FLINK_HOME/lib/flink-table-planner-loader-1.17.1.jar $FLINK_HOME/opt/flink-table-planner-loader-1.17.1.jar

#报错2

ERROR org.apache.flink.yarn.YarnClusterDescriptor[] - The application application_1685677819554_0092 doesn't run anymore. It has previously completed with final status: KILLED

#解决办法
启动yarn-session并进行配置文件配置applicationID

#报错3

Error: Error while compiling statement: FAILED: RuntimeException java.lang.ClassNotFoundException: org.apache.paimon.hive.mapred.PaimonInputFormat (state=42000,code=40000)

#解决办法
add jar  hdfs:///jars/paimon-hive-connector-3.1-0.6-20230910.002112-5.jar

标签:初体验,flink,jar,hive,apache,table,paimon
From: https://www.cnblogs.com/whiteY/p/17715425.html

相关文章

  • Apache IoTDB开发系统之Administration Management
    IoTDB为用户提供账号权限管理操作,保障数据安全。基本概念用户用户是数据库的合法用户。用户对应于唯一的用户名,并具有密码作为身份验证方式。在使用数据库之前,一个人必须首先提供合法的用户名和密码才能使自己成为用户。特权数据库提供了多种操作,并非所有用户都可以执行所有操作。......
  • 配置开启Hive远程连接
    Hive远程连接要配置Hive远程连接,首先确保HiveServer2已启动并监听指定的端口hive/bin/hiveserver2检查HiveServer2是否正在运行#lsof-i:10000COMMANDPIDUSERFDTYPEDEVICESIZE/OFFNODENAMEjava660root565uIPv6899170t0TCP*:ndmp(LISTEN)......
  • destoon关于archiver归档的性能优化
    今天在处理一个项目时候发现archiver单个模块归档超过百万数据,打开速度就特慢,所以打开archiver下index.php文件进行分析,发现有句sql作怪,查询需要三四分钟,所以要修改这个。$result=$db->query("SELECTtitle,linkurl,addtimeFROM{$table}WHERE$conditionORDERBYaddtimeDES......
  • destoon关于archiver归档的性能优化
     今天在处理一个项目时候发现archiver单个模块归档超过百万数据,打开速度就特慢,所以打开archiver下index.php文件进行分析,发现有句sql作怪$result=$db->query("SELECTtitle,linkurl,addtimeFROM{$table}WHERE$conditionORDERBYaddtimeDESCLIMIT$offset,$pagesize"......
  • destoon自定义一个archiver内容文档
     在archiver目录建立以下代码:<?phpdefine('DT_REWRITE',true);require'../common.inc.php';$EXT['archiver_enable']ordheader(DT_PATH);//$DT_BOTordheader(DT_PATH);$N=$M=$T=array();$midor$mid=5;$vmid=$list=0;......
  • Apache IoTDB开发系统之Java 原生接口
    安装依赖JDK>=1.8Maven>=3.6安装方法在根目录下运行:mvncleaninstall-plsession-am-Dmaven.test.skip=true在MAVEN中使用原生接口<dependencies><dependency><groupId>org.apache.iotdb</groupId><artifactId>iotdb-session</......
  • Apache IoTDB开发系统之语法规则
    字面值常量该部分对IoTDB中支持的字面值常量进行说明,包括字符串常量、数值型常量、时间戳常量、布尔型常量和空值。字符串常量字符串是由单引号(')或双引号(")字符括起来的字符序列。示例如下:'astring'"anotherstring"字符串字面值的使用场景:INSERT 或者 SELECT 中用于表达 TE......
  • Hive的分区
    在下面的代码中,我们创建了名为emp的分区表,使用关键字partitionedby:createtableemp(namestring,ageint)partitionedby(provicestring,citystring);在这里,用partitionedby指定创建的分区,多个分区意味着多级目录。在Hive中,可以使用多个列对表进行分......
  • apache下php获取不到Authorization
    主要情况为apache配置文件httd.conf缺少相关配置。在配置文件中找到IfModuledir_module标签,在其中添加SetEnvIfAuthorization.+HTTP_AUTHORIZATION=$0 <IfModuledir_module>DirectoryIndexindex.phpindex.htmlSetEnvIfAuthorization.+HTTP_AUTHORIZATION=......
  • 尚硅谷大数据HiveSQL练习题(一)——同时在线人数问题
    题目需求现有各直播间的用户访问记录表(live_events)如下,表中每行数据表达的信息为,一个用户何时进入了一个直播间,又在何时离开了该直播间。user_id(用户id)live_id(直播间id)in_datetime(进入直播间的时间)out_datetime(离开直播间的时间)10012021-12-119:30:00......