首页 > 其他分享 >presto、hive使用year、month、date函数使用注意事项

presto、hive使用year、month、date函数使用注意事项

时间:2024-01-21 13:04:00浏览次数:30  
标签:presto year 数据类型 hive 报错 sql 执行

经过尝试,presto查询速度更快,于是使用presto引擎查询,直接将在hive中使用的sql拷贝到presto执行,遇到各种问题。

遇到问题

以下sql在hive中执行成功,变量日期是2024-01-02这样的格式 image.png

但在presto中执行报错,如下: image.png

解决方法

通过观察报错信息最后两行,推测很可能是因为数据类型不正确,所以报错。 于是尝试转换数据类型,结果在presto中执行成功。

直接执行下面的sql,报错。 image.png

转换数据类型后,执行成功。 image.png

总结,最稳妥的做法是使用日期相关函数时,都加上数据类型转换,这样在hive、presto中可以使用。

标签:presto,year,数据类型,hive,报错,sql,执行
From: https://blog.51cto.com/u_13372349/9354628

相关文章

  • Hive SQL底层执行过程详细剖析
     本文结构采用宏观着眼,微观入手,从整体到细节的方式剖析HiveSQL底层原理。第一节先介绍Hive底层的整体执行流程,然后第二节介绍执行流程中的SQL编译成MapReduce的过程,第三节剖析SQL编译成MapReduce的具体实现原理。HiveHive是什么?Hive是数据仓库工具,再具体点就......
  • hive window 开窗函数
    一、窗口函数聚合函数:sum()min()max()avg()排序函数:rank()dens_rank()row_number()ntile()统计比较函数:lead()lag()first_value()二、窗口大小partitionbyorderby三、窗口边界nprecedingnfollowi......
  • Hive报错:Call From hadoop01/172.23.238.2 to hadoop01:10020 failed on connection e
    问题描述在阿里云服务器上安装的Hadoop和Hive,刚开始关闭了防火墙。但是由于服务器被被黑客安装挖矿程序,所以开启了防火墙。但是即使开启了所有可能的端口,但是在向Hive中插入数据时,依然报错提示:CallFromhadoop01/172.23.238.2tohadoop01:10020failedonconnectionexception......
  • Hive之set参数大全-8
    指定LLAP(LowLatencyAnalyticalProcessing)的执行模式hive.llap.execution.mode是ApacheHive中的一个配置属性,用于指定LLAP(LowLatencyAnalyticalProcessing)的执行模式。该属性用于决定Hive查询是否使用LLAP引擎执行。以下是使用SQL语言设置此属性的示例:--设置LLAP的执行......
  • Hive之set参数大全-9
    指定LLAP(LowLatencyAnalyticalProcessing)引擎中的IO(输入/输出)线程池的大小hive.llap.io.threadpool.size是ApacheHive中的一个配置属性,用于指定LLAP(LowLatencyAnalyticalProcessing)引擎中的IO(输入/输出)线程池的大小。以下是使用SQL语言设置此属性的示例:--设置LLAP引擎......
  • 使用zipFile读取文件时遇到的问题及解决(KeyError: "There is no item named 'xxx' in
    问题描述在Windows上跑一段代码时,遇到如下问题:KeyError:"Thereisnoitemnamed'CDR_Data\\\\CDR.Corpus.v010516\\\\CDR_DevelopmentSet.PubTator.txt'inthearchive"原因分析这是一段Python代码,代码中使用到了zipfile库,它首先创建了一个ZipFile对象,然后在调用read()......
  • 2024-1-15 大数据hive-执行计划
    学习执行计划。简单的解释为:explainquery;一个简单的例子为:explainselectsum(id)fromtest1;该语句的执行计划为:STAGEDEPENDENCIES:Stage-1isarootstageStage-0dependsonstages:Stage-1STAGEPLANS:Stage:Stage-1MapReduceMapO......
  • SparkSQL 操作Hive In Java
    本文的前提条件:SparkSQLinJava1.增加POM依赖<dependency><groupId>com.mysql</groupId><artifactId>mysql-connector-j</artifactId><version>8.0.33</version></dependenc......
  • SparkSQL 操作Hive
    Spark中本身内置了Hive,但一般用于测试,生产环境中需要连接外置的Hive1.将Hive的配置文件hive-site.xml拷贝到Spark的配置目录下cp/usr/hive/apache-hive-3.1.3-bin/conf/hive-site.xml/usr/spark/spark-3.5.0-bin-hadoop3/conf2.将MysqlJDBC驱动放置在Spark的jars目录下1.......
  • Hive常见问题
    Hive常见问题1、hive创建数据库在使用hive指令创建数据库时,指定创建位置createdatabasebigdata_demo1location'/bigdata_29';在shell脚本中显示创建返回结果但是在hdfs中并未找到该数据库;这里可能是bug,于是我们通过第二种方法,即在location中将该数据库也加入到路径中......