首页 > 其他分享 >在Flink中jackson-databind包下的ObjectMapper处理大写字段问题

在Flink中jackson-databind包下的ObjectMapper处理大写字段问题

时间:2024-05-22 16:53:05浏览次数:15  
标签:jackson String Flink databind ObjectMapper order objectMapper

需要加上配置,不然解析会失败,产生一个空对象

objectMapper.configure(MapperFeature.ACCEPT_CASE_INSENSITIVE_PROPERTIES, true);// 忽略大小写

代码:

public class StreamingJob {
    public static void main(String[] args) throws Exception {
        final Logger logger = LoggerFactory.getLogger(StreamingJob.class);
        ObjectMapper objectMapper = new ObjectMapper();
        String order_attrs1 = "[{\"cust_ORDER_ID\":1000,\"remark\":\"这是一个备注\"}]";
        String order_attrs2 = "[{\"CUST_ORDER_ID\":1000,\"REMARK\":\"这是一个备注\"}]";
     // 配置忽略大小写 objectMapper.configure(MapperFeature.ACCEPT_CASE_INSENSITIVE_PROPERTIES, true); List<OrderAttr> itemList = objectMapper.readValue(order_attrs2, new TypeReference<List<OrderAttr>>() { }); logger.info("解析:{}", itemList.size()); } }

引入的pom

<dependency>
    <groupId>com.fasterxml.jackson.core</groupId>
    <artifactId>jackson-databind</artifactId>
    <version>2.13.0</version>
</dependency>

 

标签:jackson,String,Flink,databind,ObjectMapper,order,objectMapper
From: https://www.cnblogs.com/sunAnqing/p/18206636

相关文章

  • flink
    基础api 创建执行环境 sink执行   这8个字节到底是整个还是2个2个字节解析,为什么需要数据类型,flink必须非常清楚数据结构,才有处理,还要网络传输。  解析泛型内部信息,应对泛型擦除,+类型提示     物理分区api   shuffle打散,均匀......
  • 使用Flink进行MD5加密
    packagecom.huft.flk117.test;importorg.apache.flink.api.common.eventtime.WatermarkStrategy;importorg.apache.flink.api.common.serialization.SimpleStringEncoder;importorg.apache.flink.configuration.MemorySize;importorg.apache.flink.connector.file.si......
  • jackson解析xml坑点
    为了获取xml数据,在springmvc中针对@ResponseBody配置了jackson。刚用的时候内心是狂喜的,终于不用自己解析了………… but…………………………还是有坑的……坑一:大小写问题@JacksonXmlProperty(localName="Apid")privateIntegerApid;privateIntegergetApid(){ ......
  • Flink富函数
      富函数是DataStreamAPI提供的函数接口,Flink的函数都有它的Rich版本,它与其他函数不同的是,富函数可以获取到运行环境上下文,初始化参数,拥有生命周期方法等,可通过它进行自定义复杂功能。我们常见的如RichMapFunction、RichFilterFunction等。    富函数的生命周期主要通过......
  • Jackson 库中@JsonProperty和@JsonAlias注解实现序列化反序列化
    Json序列化一般为实体转化生成的JSON数据中直接包含嵌套对象的属性ObjectMappermapper=newObjectMapper();Bookbook=newBook("LearningJava","Java");Writerwriter=newWriter(110,"Mohit",book);StringjsonWriter=......
  • Flink精确消费一次
     在大数据计算里面,计算引擎是处于承上启下的作用,对上承接数据源,对下承接各种各种数据库,比如mysql、oracle。对于任何数据计算来说要想精确消费一次,就需要支持事务或者幂等,我们最常见的支持事务的就是单点的oracle、mysql数据库,那么Flink作为分布式计算引擎,是如何做到精确消费一次......
  • Flink同步kafka到iceberg数据延迟,两个checkpoint后才可查询
    一、问题描述用户配置了高级参数很多,观察kafka增量数据不多,flink负载不高情况下两个checkpoint后才可查询到数据。  排查时hdfs有数据文件产生,但是mainfast文件中最新快照id没变化。 二、原因经腾讯排查,用户参数指定高级参数execution.checkpointing.unaligned:true引起......
  • 【Flink 日常踩坑】Could not find ExecutorFactory in classpath
    Description一段简单的FlinkSQL程序,在IDE中运行没问题,但是maven打包后发布到终端启动却报错了。importorg.apache.flink.configuration.Configuration;importorg.apache.flink.streaming.api.environment.StreamExecutionEnvironment;importorg.apache.flink.table.......
  • 【Flink 日常踩坑】Could not find ExecutorFactory in classpath
    Description一段简单的FlinkSQL程序,在IDE中运行没问题,但是maven打包后发布到终端启动却报错了。importorg.apache.flink.configuration.Configuration;importorg.apache.flink.streaming.api.environment.StreamExecutionEnvironment;importorg.apache.flink.table.......
  • Flink同步kafka到iceberg(cos存储)
    一、flink到logger1、sourcecreatetablesource_table(idbigintcomment'唯一编号',order_numberbigintcomment'订单编号',update_timestamptimestamp_ltzmetadatafr......