首页 > 其他分享 >总结|Stream流技术在真实案例中的应用

总结|Stream流技术在真实案例中的应用

时间:2024-08-15 09:55:57浏览次数:15  
标签:总结 Stream stream System 案例 println null out

 

本文不仅提供了理论上的讲解,还通过实际代码示例展示了如何应用Stream API来解决常见的编程问题。

在日常开发中,有很多对象转化、链表去重、分批次服务调用等场景,这些场景用for循环或者if-else实现会让代码冗长、容易出错且效率不高。在查看项目代码的过程中以及师兄的引导下,学到了很多新的使用方式。对此,将Stream流进行一次整理。

案例引入

 

在JAVA中,涉及到对数组、Collection等集合类中的元素进行操作的时候,通常会通过循环的方式进行逐个处理,或者使用Stream的方式进行处理。

假设我们遇到了这么一个需求:从给定句子中返回单词长度大于5的单词列表,按长度倒序输出,最多返回3个。

在学校里面,或者在未接触Stream流的时候,我们可能会这样写函数:

public List<String> sortGetTop3LongWords(@NotNull String sentence) {
    // 先切割句子,获取具体的单词信息
    String[] words = sentence.split(" ");
    List<String> wordList = new ArrayList<>();
    // 循环判断单词的长度,先过滤出符合长度要求的单词
    for (String word : words) {
        if (word.length() > 5) {
            wordList.add(word);
        }
    }
    // 对符合条件的列表按照长度进行排序
    wordList.sort((o1, o2) -> o2.length() - o1.length());
    // 判断list结果长度,如果大于3则截取前三个数据的子list返回
    if (wordList.size() > 3) {
        wordList = wordList.subList(0, 3);
    }
    return wordList;
}

然而,如果我们用上了Stream流:

public List<String> sortGetTop3LongWordsByStream(@NotNull String sentence) {
    return Arrays.stream(sentence.split(" "))
            .filter(word -> word.length() > 5)
            .sorted((o1, o2) -> o2.length() - o1.length())
            .limit(3)
            .collect(Collectors.toList());
}

可以直观得看出,代码缩短了几乎一半。所以,了解并更好的使用Stream流能够让我们的代码简洁明了,一气呵成。

一、Stream流初步了解

 

概括讲,可以将Stream流操作分为3种类型:

  • 创建Stream

  • Stream中间处理

  • 终止Steam

    图片

    每个Stream管道操作都包含若干方法,先列举一下各个API的方法:

 

1.1开始管道

 

主要负责新建一个Stream流,或者基于现有的数组、List、Set、Map等集合类型对象创建出新的Stream流。

图片

 

1.2中间管道

 

负责对Stream进行处理操作,并返回一个新的Stream对象,中间管道操作可以进行叠加。

API

功能说明

filter()

按照条件过滤符合要求的元素, 返回新的stream流。

map()

将已有元素转换为另一个对象类型,一对一逻辑,返回新的stream流。

flatMap()

将已有元素转换为另一个对象类型,一对多逻辑,即原来一个元素对象可能会转换为1个或者多个新类型的元素,返回新的stream流。

limit()

仅保留集合前面指定个数的元素,返回新的stream流。

skip()

跳过集合前面指定个数的元素,返回新的stream流。

concat()

将两个流的数据合并起来为1个新的流,返回新的stream流。

distinct()

对Stream中所有元素进行去重,返回新的stream流。

sorted()

对stream中所有的元素按照指定规则进行排序,返回新的stream流。

peek()

对stream流中的每个元素进行逐个遍历处理,返回处理后的stream流。

 

1.3终止管道

 

顾名思义,通过终止管道操作之后,Stream流将会结束,最后可能会执行某些逻辑处理,或者是按照要求返回某些执行后的结果数据。

API

功能说明

count()

返回stream处理后最终的元素个数。

max()

返回stream处理后的元素最大值。

min()

返回stream处理后的元素最小值。

findFirst()

找到第一个符合条件的元素时则终止流处理。

findAny()

找到任何一个符合条件的元素时则退出流处理,这个对于串行流时与findFirst相同,对于并行流时比较高效,任何分片中找到都会终止后续计算逻辑。

anyMatch()

返回一个boolean值,类似于isContains(),用于判断是否有符合条件的元素。

allMatch()

返回一个boolean值,用于判断是否所有元素都符合条件。

noneMatch()

返回一个boolean值, 用于判断是否所有元素都不符合条件。

collect()

将流转换为指定的类型,通过Collectors进行指定。

toArray()

将流转换为数组。

iterator()

将流转换为Iterator对象。

foreach()

无返回值,对元素进行逐个遍历,然后执行给定的处理逻辑。

 

二、Stream方法的使用

 

 

2.1map与flatMap

 

在项目中,经常看到也经常使用到map与flatMap,比如代码:

图片

那两者有什么相同和不同呢?

map与flatMap都是用于转换已有的元素为其它元素,区别点在于:

  • map 必须是一对一的,即每个元素都只能转换为1个新的元素;
  • flatMap 可以是一对多的,即每个元素都可以转换为1个或者多个新的元素;

下面两张图形象地说明了两者之间的区别:

map图:

图片

 

flatMap图:

图片

map用例:

有一个字符串ID列表,现在需要将其转为别的对象列表。

/** * map的用途:一换一 */List<String> ids = Arrays.asList("205", "105", "308", "469", "627", "193", "111");        // 使用流操作List<NormalOfferModel> results = ids.stream()        .map(id -> {            NormalOfferModel model = new NormalOfferModel();            model.setCate1LevelId(id);            return model;        })        .collect(Collectors.toList());System.out.println(results);

执行之后,会发现每一个元素都被转换为对应新的元素,但是前后总元素个数是一致的:

[NormalOfferModel{cate1LevelId='205', imgUrl='null', linkUrl='null', ohterurl='null'},NormalOfferModel{cate1LevelId='105', imgUrl='null', linkUrl='null', ohterurl='null'},NormalOfferModel{cate1LevelId='308', imgUrl='null', linkUrl='null', ohterurl='null'}, NormalOfferModel{cate1LevelId='469', imgUrl='null', linkUrl='null', ohterurl='null'}, NormalOfferModel{cate1LevelId='627', imgUrl='null', linkUrl='null', ohterurl='null'},NormalOfferModel{cate1LevelId='193', imgUrl='null', linkUrl='null', ohterurl='null'}, NormalOfferModel{cate1LevelId='111', imgUrl='null', linkUrl='null', ohterurl='null'}    ]

flatMap用例:

现有一个句子列表,需要将句子中每个单词都提取出来得到一个所有单词列表:

List<String> sentences = Arrays.asList("hello world","Hello Price Info The First Version");// 使用流操作List<String> results2 = sentences.stream()        .flatMap(sentence -> Arrays.stream(sentence.split(" ")))        .collect(Collectors.toList());System.out.println(results2);

结果:

[hello, world, Hello, Price, Info, The, First, Version]

这里需要补充一句,flatMap操作的时候其实是先每个元素处理并返回一个新的Stream,然后将多个Stream展开合并为了一个完整的新的Stream,如下:

图片

 

2.2 peek和foreach方法

 

peek和foreach,都可以用于对元素进行遍历然后逐个处理。

但根据前面的介绍,peek属于中间方法,而foreach属于终止方法。这也就意味着peek只能作为管道中途的一个处理步骤,而没法直接执行得到结果,其后面必须还要有其它终止操作的时候才会被执行;而foreach作为无返回值的终止方法,则可以直接执行相关操作。

public void testPeekAndforeach() {    List<String> sentences = Arrays.asList("hello world","Jia Gou Wu Dao");    // 演示点1:仅peek操作,最终不会执行    System.out.println("----before peek----");    sentences.stream().peek(sentence -> System.out.println(sentence));    System.out.println("----after peek----");    // 演示点2:仅foreach操作,最终会执行    System.out.println("----before foreach----");    sentences.stream().forEach(sentence -> System.out.println(sentence));    System.out.println("----after foreach----");    // 演示点3:peek操作后面增加终止操作,peek会执行    System.out.println("----before peek and count----");    sentences.stream().peek(sentence -> System.out.println(sentence)).count();    System.out.println("----after peek and count----");}

输出结果可以看出,peek独自调用时并没有被执行、但peek后面加上终止操作之后便可以被执行,而foreach可以直接被执行:

----before peek--------after peek--------before foreach----hello worldJia Gou Wu Dao----after foreach--------before peek and count----hello worldJia Gou Wu Dao----after peek and count----

 

2.3 filter、sorted、distinct、limit

 

这几个都是常用的Stream的中间操作方法,具体的方法的含义在上面的表格里面有说明。具体使用的时候,可以根据需要选择一个或者多个进行组合使用,或者同时使用多个相同方法的组合:

public void testGetTargetUsers() {    List<String> ids = Arrays.asList("205","10","308","49","627","193","111", "193");    // 使用流操作    List<OfferModel> results = ids.stream()            .filter(s -> s.length() > 2)            .distinct()            .map(Integer::valueOf)            .sorted(Comparator.comparingInt(o -> o))            .limit(3)            .map(id -> new OfferModel(id))            .collect(Collectors.toList());    System.out.println(results);}

上面的代码片段的处理逻辑:

1.使用filter过滤掉不符合条件的数据2.通过distinct对存量元素进行去重操作3.通过map操作将字符串转成整数类型4.借助sorted指定按照数字大小正序排列5.使用limit截取排在前3位的元素6.又一次使用map将id转为OfferModel对象类型7.使用collect终止操作将最终处理后的数据收集到list中

输出结果:

[OfferModel{id=111},  OfferModel{id=193},  OfferModel{id=205}]

 

2.4 简单结果终止流

 

按照前面介绍的,终止方法里面像count、max、min、findAny、findFirst、anyMatch、allMatch、noneMatch等方法,均属于这里说的简单结果终止方法。所谓简单,指的是其结果形式是数字、布尔值或者Optional对象值等。

public void testSimpleStopOptions() {    List<String> ids = Arrays.asList("205", "10", "308", "49", "627", "193", "111", "193");    // 统计stream操作后剩余的元素个数    System.out.println(ids.stream().filter(s -> s.length() > 2).count());    // 判断是否有元素值等于205    System.out.println(ids.stream().filter(s -> s.length() > 2).anyMatch("205"::equals));    // findFirst操作    ids.stream().filter(s -> s.length() > 2)            .findFirst()            .ifPresent(s -> System.out.println("findFirst:" + s));}

最后结果为:

6truefindFirst:205

一旦一个Stream被执行了终止操作之后,后续便不可以再读这个流执行其他的操作了,否则会报错,看下面示例:

public void testHandleStreamAfterClosed() {    List<String> ids = Arrays.asList("205", "10", "308", "49", "627", "193", "111", "193");    Stream<String> stream = ids.stream().filter(s -> s.length() > 2);    // 统计stream操作后剩余的元素个数    System.out.println(stream.count());    System.out.println("-----下面会报错-----");    // 判断是否有元素值等于205    try {        System.out.println(stream.anyMatch("205"::equals));    } catch (Exception e) {        e.printStackTrace();        System.out.println(e.toString());    }    System.out.println("-----上面会报错-----");}

结果:

-----下面会报错-----java.lang.IllegalStateException: stream has already been operated upon or closed-----上面会报错-----java.lang.IllegalStateException: stream has already been operated upon or closed  at java.util.stream.AbstractPipeline.evaluate(AbstractPipeline.java:229)  at java.util.stream.ReferencePipeline.anyMatch(ReferencePipeline.java:516)  at Solution_0908.main(Solution_0908.java:55)

因为stream已经被执行count()终止方法了,所以对stream再执行anyMatch方法的时候,就会报错stream has already been operated upon or closed,这一点在使用的时候需要特别注意。

 

2.5 结果收集终止方法

 

因为Stream主要用于对集合数据的处理场景,所以除了上面几种获取简单结果的终止方法之外,更多的场景是获取一个集合类的结果对象,比如List、Set或者HashMap等。

这里就需要collect方法出场了,它可以支持生成如下类型的结果数据:

1.一个集合类,比如List、Set或者HashMap等;2.StringBuilder对象,支持将多个字符串进行拼接处理并输出拼接后结果;

3.一个可以记录个数或者计算总和的对象(数据批量运算统计);

2.5.1生成集合对象

应该算是collect最常被使用到的一个场景了:

 List<NormalOfferModel> normalOfferModelList = Arrays.asList(new NormalOfferModel("11"),                new NormalOfferModel("22"),                new NormalOfferModel("33"));
// collect成listList<NormalOfferModel> collectList = normalOfferModelList        .stream()        .filter(offer -> offer.getCate1LevelId().equals("11"))        .collect(Collectors.toList());System.out.println("collectList:" + collectList);
// collect成SetSet<NormalOfferModel> collectSet = normalOfferModelList        .stream()        .filter(offer -> offer.getCate1LevelId().equals("22"))        .collect(Collectors.toSet());System.out.println("collectSet:" + collectSet);
// collect成HashMap,key为id,value为Dept对象Map<String, NormalOfferModel> collectMap = normalOfferModelList        .stream()        .filter(offer -> offer.getCate1LevelId().equals("33"))        .collect(Collectors.toMap(NormalOfferModel::getCate1LevelId, Function.identity(), (k1, k2) -> k2));System.out.println("collectMap:" + collectMap);

结果:

collectList:[NormalOfferModel{cate1LevelId='11', imgUrl='null', linkUrl='null', ohterurl='null'}]collectSet:[NormalOfferModel{cate1LevelId='22', imgUrl='null', linkUrl='null', ohterurl='null'}]collectMap:{33=NormalOfferModel{cate1LevelId='33', imgUrl='null', linkUrl='null', ohterurl='null'}}

2.5.2 生成拼接字符串

将一个List或者数组中的值拼接到一个字符串里并以逗号分隔开,这个场景相信大家都不陌生吧?如果通过for循环和StringBuilder去循环拼接,还得考虑下最后一个逗号如何处理的问题,很繁琐:

public void testForJoinStrings() {    List<String> ids = Arrays.asList("205", "10", "308", "49", "627", "193", "111", "193");    StringBuilder builder = new StringBuilder();    for (String id : ids) {        builder.append(id).append(',');    }    // 去掉末尾多拼接的逗号    builder.deleteCharAt(builder.length() - 1);    System.out.println("拼接后:" + builder.toString());}

但是现在有了Stream,使用collect可以轻而易举的实现:

public void testCollectJoinStrings() {    List<String> ids = Arrays.asList("205", "10", "308", "49", "627", "193", "111", "193");    String joinResult = ids.stream().collect(Collectors.joining(","));    System.out.println("拼接后:" + joinResult);}

两种方式都可以得到完全相同的结果,但Stream的方式更优雅:

拼接后:205,10,308,49,627,193,111,193

2.5.3批量数学运算

还有一种场景,实际使用的时候可能会比较少,就是使用collect生成数字数据的总和信息,也可以了解下实现方式:

public void testNumberCalculate() {    List<Integer> ids = Arrays.asList(10, 20, 30, 40, 50);    // 计算平均值    Double average = ids.stream().collect(Collectors.averagingInt(value -> value));    System.out.println("平均值:" + average);    // 数据统计信息    IntSummaryStatistics summary = ids.stream().collect(Collectors.summarizingInt(value -> value));    System.out.println("数据统计信息:" + summary);}

上面的例子中,使用collect方法来对list中元素值进行数学运算,结果如下:

平均值:30.0总和:IntSummaryStatistics{count=5, sum=150, min=10, average=30.000000, max=50}

三、并行Stream

 

 

3.1parallelStream的机制说明

 

使用并行流,可以有效利用计算机的多CPU硬件

,提升逻辑的执行速度。并行流通过将一整个stream划分为多个片段,然后对各个分片流并行执行处理逻辑,最后将各个分片流的执行结果汇总为一个整体流。

图片

可以通过parallelStream的源码发现parallel Stream底层是将任务进行了切分,最终将任务传递给了jdk8自带的“全局”ForkJoinPool线程池。  在Fork-Join中,比如一个拥有4个线程的ForkJoinPool线程池,有一个任务队列,一个大的任务切分出的子任务会提交到线程池的任务队列中,4个线程从任务队列中获取任务执行,哪个线程执行的任务快,哪个线程执行的任务就多,只有队列中没有任务线程才是空闲的,这就是工作窃取。

可以通过下图更好的理解这种“分而治之”的思想:

图片

 

3.2约束与限制

 

1.parallelStream()中foreach()操作必须保证是线程安全的;

很多人在用惯了流式处理之后,很多for循环都会直接使用流式foreach(),实际上这样不一定是合理的,如果只是简单的for循环,确实没有必要使用流式处理,因为流式底层封装了很多流式处理的复杂逻辑,从性能上来讲不占优。

2.parallelStream()中foreach()不要直接使用默认的线程池;

ForkJoinPool customerPool = new ForkJoinPool(n);customerPool.submit(     () -> customerList.parallelStream().具体操作

3.parallelStream()使用的时候尽量避免耗时操作;

如果遇到耗时的操作,或者大量IO的操作,或者有线程sleep的操作一定要避免使用并行流。

四、Stream流可能会遇到的一些坑点

 

 

4.1 parallelStream和整个java进程共用ForkJoinPool

 

如果直接使用parallelStream().foreach会默认使用全局的ForkJoinPool,而这样就会导致当前程序很多地方共用同一个线程池,包括gc相关操作在内,所以一旦任务队列中满了之后,就会出现阻塞的情况,导致整个程序的只要当前使用ForkJoinPool的地方都会出现问题。

 

4.2 parallelStream使用后ThreadLocal数据为空

 

parallelStream创建的并行流在真正执行时是由ForkJoin框架创建多个线程并行执行,由于ThreadLocal本身不具有可继承性,新生成的线程自然无法获取父线程中的ThreadLocal数据。

 

4.3 转map的时候,没有注意到key值重复

 

在使用Stream流转map操作的时候,需要注意key重复的问题。

五、Stream流总结

 

 

5.1优势

 

1.代码更简洁。偏声明式的编码风格,更容易体现出代码的逻辑意图。

2.逻辑间解耦。一个stream中间处理逻辑,无需关注上游与下游的内容,只需要按约定实现自身逻辑即可。

3.并行流场景效率会比迭代器逐个循环更高。

4.函数式接口,延迟执行的特性,中间管道操作不管有多少步骤都不会立即执行,只有遇到终止操作的时候才会开始执行,可以避免一些中间不必要的操作消耗。

 

5.2劣势

 

debug不方便。

 

 

 

 

 

 

 

 

 

转载:阿里云开发者

标签:总结,Stream,stream,System,案例,println,null,out
From: https://www.cnblogs.com/hezemin/p/18360289

相关文章

  • superset定制化配置修改总结
    1.需要想用iframe引入dashboard时, URL参数可用于修改仪表板的呈现方式,standalone=0属性枚举描述standalone0仪表盘正常显示1顶部导航已隐藏2顶部导航+标题被隐藏3顶部导航+标题+顶级标签被隐藏show_filters0渲染没有过滤栏的仪表板1(默认):如果启用了本机过滤器,则使用过......
  • 2024.8.14 总结(集训)
    依然是TQX来讲字符串。/bx/bx/bx属于是两个上午速通字符串里一些重要的内容。上课时只有manacher和PAM是我有点听懂了的。于是下午看TQX的博客学了PAM,看之前看过的博客复习了下SAM,给why讲了些、和他讨论了PAM,AC了洛谷上的PAM板子,看TQX的PPT学了manache......
  • 我的总结
    inandororderby,insertintoupdatedeleteDELETE:删除表中的数据,保留表结构。可逆。。DROP:删除整个表(包括结构和数据),不可逆操作。。TRUNCATE:删除表中的所有数据,保留表结构,不可逆创建,删除,移动,复制,查找,编辑,压缩。。ps-ef-aux。。du,chmod,chown,ggshiftg响应时间,并发用......
  • Stream流处理
    Stream流处理目录Stream流处理什么是SteamSteam的简单使用Stream主要方法Stream方法的使用什么是SteamJava8中新增了Stream(流)来简化集合类的使用,Stream本质上是个接口,接口中定义了很多对Stream对象的操作。我们知道,Java中List和Set集合都是基于Collection接......
  • 【Nginx】nginx案例-配置文件
      案例一、【web服务应用】七层反向代理,负载均衡,动静分离 vim/usr/local/nginx/conf/nginx.conf......http{......#gzipon;#配置负载均衡的服务器列表,weight参数表示权重,权重越高,被分配到的概率越大upstreamtomcat_server{server1......
  • springboot+vue《区块链技术与应用》课程案例信息资源系统【程序+论文+开题】-计算机
    系统程序文件列表开题报告内容研究背景随着信息技术的飞速发展,教育领域正经历着前所未有的变革。区块链技术,作为新兴的去中心化、透明度高、安全性强的分布式账本技术,正逐渐渗透到各行各业,其在教育领域的应用潜力尤为巨大。当前,高校教学中案例资源的共享与管理面临着信息孤......
  • 软件项目过程诊断与改进建议案例
    软件项目过程诊断与改进建议案例项目交付过程痛点经过几个实际项目跟进与调研,发下如下项目交付过程痛点运维的痛点结合敏捷软件开发、PMI项目管理知识体系和CMMI5体系,我们可以为交付过程与运维过程的痛点提供一个全面的解决方案。以下是整合了这三种方法论的解决方案:交付过程痛点......
  • KingbaseES V8R3集群运维案例---sys_md5修改密码错误
    案例说明:KingbaseESV8R3集群在通过sys_md5修改SYSTEM用户密码时出现异常“invalidpasswordlengthincluster_passwdfile”。适用版本:KingbaseESV8R3一、问题现象ksql访问集群9999端口,提示“md5authenticationfailed”:kingbasecluster服务端口9999的用户认证,是通过......
  • 最新版本原生three cesium案例聚集地
    开发实时预览:http://z2586300277.github.io/three-cesium-examples/index.html开源地址github:https://github.com/z2586300277/three-cesium-examples纯原生threecesium案例由于前端得发展,three.js和cesium.js越来越被越来越多得前端接触到,由于其学习路线比较复......
  • Linux基础-总结篇
    作者介绍:简历上没有一个精通的运维工程师。希望大家多多关注作者,下面的思维导图也是预计更新的内容和当前进度(不定时更新)。经过前面30多小节的内容介绍,我们从虚拟机的安装,到Linux文件的基本操作(增删改查),打包解压。磁盘的基本操作(分区,格式化,挂载,inode)。网络的基本操作:配......