首页 > 其他分享 >Flink(二)搭建Maven工程实现WordCount

Flink(二)搭建Maven工程实现WordCount

时间:2024-09-27 10:12:19浏览次数:1  
标签:Flink java flink WordCount Maven api org apache import

开发环境编写WordCount

pom文件

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0
http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>
    <groupId>com.hongpin.bigdata.Flink</groupId>
    <artifactId>Flink</artifactId>
    <version>1.0-SNAPSHOT</version>
    <dependencies>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-java</artifactId>
            <version>1.10.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-streaming-java_2.12</artifactId>
            <version>1.10.1</version>
        </dependency>
    </dependencies>
</project>

批处理WordCount

package com.hongpin.bigdata;

import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.java.DataSet;
import org.apache.flink.api.java.ExecutionEnvironment;
import org.apache.flink.api.java.operators.AggregateOperator;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.util.Collector;

import java.awt.*;
import java.nio.file.Path;

// 批处理
public class WordCount {
    public static void main(String[] args) throws Exception {
        if (args.length != 2) {
            System.err.println("Usage: WordCount <input path> <output path>");
            System.out.println(args.length);
            return;
        }
        //创建执行环境
        ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();

        //从文件中读取数据
        String inputPath = args[0];
        DataSet<String> inputDataSet = env.readTextFile(inputPath);

        // 空格分词打散之后,对单词进行 groupby 分组,然后用 sum 进行聚合
        DataSet<Tuple2<String, Integer>> wordCountDataSet =
                inputDataSet.flatMap(new MyFlatMapper())
                        .groupBy(0)
                        .sum(1);
        // 打印输出
        String outputPath = args[1];
        wordCountDataSet.writeAsText(outputPath);
    }
    public static class MyFlatMapper implements FlatMapFunction<String, Tuple2<String,
            Integer>> {
        @Override
        public void flatMap(String value, Collector<Tuple2<String, Integer>> out) throws
                Exception {
            String[] words = value.split(" ");
            for (String word : words) {
                out.collect(new Tuple2<String, Integer>(word, 1));
            }
        }
    }
}

流处理WordCount

package com.hongpin.bigdata;

import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.api.java.utils.ParameterTool;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;

public class StreamWordCount {
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env =
                StreamExecutionEnvironment.getExecutionEnvironment();
        ParameterTool parameterTool = ParameterTool.fromArgs(args);
        String host = parameterTool.get("host");
        int port = parameterTool.getInt("port");
        DataStream<String> inputDataStream = env.socketTextStream(host, port);
        DataStream<Tuple2<String, Integer>> wordCountDataStream = inputDataStream
                .flatMap(new WordCount.MyFlatMapper())
                .keyBy(0)
                .sum(1);
        wordCountDataStream.print().setParallelism(1);
        env.execute();
    }

}
  • 其中host为运行有监听在指定端口上的TCP服务器的主机名或IP地址,port为监听的端口

遇到的问题

  • 目前批处理文件在虚拟机上提交执行,没有看到输出文件,但在IDEA环境中可以正常测试

标签:Flink,java,flink,WordCount,Maven,api,org,apache,import
From: https://www.cnblogs.com/shihongpin/p/18435148

相关文章

  • 排查maven 冲突及解决方式
    MavenMaven是一个以项目为中心的自动化构建工具,主要用于Java项目的管理和构建。它提供了一种统一的方式来描述项目的结构、依赖关系和构建过程,简化了项目的构建和管理。Maven的主要特点:项目对象模型(POM):Maven使用pom.xml文件来定义项目的依赖、插件和构建配置。POM是Maven......
  • Flink-Yarn模式修改Task Slot的数量
    1.修改Flink配置文件(flink-conf.yaml)Flink中的TaskManager是根据slots来分配任务的,默认情况下,一个TaskManager可以有多个slots。你可以通过调整flink-conf.yaml中的以下配置来控制每个TaskManager的slot数量:taskmanager.numberOfTaskSlots:<number_of_slots......
  • Flink(二)集群安装
    集群安装Standalone模式安装解压缩[user@hadoop102software]$tar-zxvfflink-1.10.1-bin-scala_2.12.tgz-C/opt/module/修改flink/conf/flink-conf.yaml文件jobmanager.rpc.address:hadoop102修改/conf/slaves文件hadoop103hadoop104分发给其他两台虚拟......
  • Maven中的配置文件
    在使用Maven进行项目管理时,合理配置settings.xml文件可以显著提高开发效率。1.找到maven对应的settings.xml文件我是使用IDEA自带的maven。就算是自己下载的maven,操作也是一样的,先找到setting文件。2.配置镜像资源为了加快依赖下载速度,可以配置国内的镜像资源。以下......
  • flink的发展历程
    ApacheSpark和ApacheFlink都是开源的分布式大数据处理框架,它们各自有着不同的特点和发展历程。ApacheSpark:起始时间:2009年,由加州大学伯克利分校AMPLab开发。开源时间:2010年,MateiZaharia将其开源。主要发展:2013年,成为Apache基金项目。2014年,成为Apache顶级项目。2016年......
  • Flink(一)概述
    Flink概述ApacheFlink是一个框架和分布式处理引擎,用于对无界和有界数据流进行状态计算Flink特点事件驱动(Event-driven)事件驱动型应用是一类具有状态的应用,它从一个或多个事件流提取数据,并根据到来的事件触发计算、状态更新或其他外部动作比较典型的就是以kafka为代表的消......
  • 利用 Flink CDC 实现实时数据同步与分析
    1.概述1.1简要介绍什么是FlinkCDC(ChangeDataCapture)FlinkCDC(ChangeDataCapture)是一种用于实时捕获和处理数据库中数据变更的技术。它通过监控数据库的变更事件,将这些事件转化为流式数据,使得数据处理系统(如ApacheFlink)能够以流的方式实时处理和分析数据。FlinkC......
  • 【随手记录】docker部署jenkins,集成maven、spring项目
    1、下载镜像文件到服务器dockerpulljenkins/jenkins:lts-jdk17或离线导入镜像:dockerload-ijenkins-lts-jdk17检查镜像是否导入:dockerimages|grepjenkinsjenkins/jenkinslts-jdk177a7add0bf3da2weeksago470MB2024年6月以后国内很多大型的Dock......
  • 精通Maven:多模块项目中的依赖管理
    Maven是一个强大的项目管理和构建工具,但它的真正力量在于其依赖管理能力。在本文中,我将分享一些关键步骤和最佳实践,以及一些高级技巧,帮助你掌握Maven多模块项目中的依赖管理。Maven多模块项目基础在深入讨论之前,让我们先了解什么是Maven多模块项目。Maven项目可以被组织成多......
  • 基于JDK1.8和Maven的GeoTools 28.X源码自主构建实践
    目录前言一、GeoTools与Jdk的版本关系1、GeoTools与Jdk版本2、编译环境简介二、使用Maven编译GeoTools28.X1、GeoTools28.x2、Maven的完整编译3、构建时的问题三、总结前言        想要学习和掌握一个开源软件或者项目,源码是我们主要学习的内容。学习开源项目的源代码可以......