Java8 中的 Stream 那么强大,那你知道它的原理是什么吗?
共 2367字,需浏览 5分钟
·
2021-11-10 08:37
作者:岁月安然
elsef.com/2019/09/16/Java8中Stream的原理分析
Java 8 API添加了一个新的抽象称为流Stream,可以让你以一种声明的方式处理数据。 Stream 使用一种类似用 SQL 语句从数据库查询数据的直观方式来提供一种对 Java 集合运算和表达的高阶抽象。 Stream API可以极大提高Java程序员的生产力,让程序员写出高效率、干净、简洁的代码。 本文会对Stream的实现原理进行剖析。
Stream的组成与特点
Stream
(流)是一个来自数据源的元素队列并支持聚合操作:元素是特定类型的对象,形成一个队列。
Java
中的Stream
并_不会_向集合那样存储和管理元素,而是按需计算数据源流的来源可以是集合
Collection
、数组Array
、I/O channel
, 产生器generator
等聚合操作类似
SQL
语句一样的操作, 比如filter
,map
,reduce
,find
,match
,sorted
等
Collection
操作不同, Stream操作还有两个基础的特征:Pipelining
: 中间操作都会返回流对象本身。这样多个操作可以串联成一个管道, 如同流式风格(fluent style)。这样做可以对操作进行优化, 比如延迟执行(laziness evaluation
)和短路(short-circuiting
)内部迭代
:以前对集合遍历都是通过Iterator
或者For-Each
的方式, 显式的在集合外部进行迭代, 这叫做外部迭代。Stream
提供了内部迭代的方式, 通过访问者模式 (Visitor
)实现。
Stream
可以并行化操作,迭代器只能命令式地、串行化操作。顾名思义,当使用串行方式去遍历时,每个 item
读完后再读下一个 item。而使用并行去遍历时,数据会被分成多个段,其中每一个都在不同的线程中处理,然后将结果一起输出。Stream
的并行操作依赖于 Java7
中引入的 Fork/Join
框架(JSR166y
)来拆分任务和加速处理过程。Java
的并行 API 演变历程基本如下:1.0-1.4 中的 java.lang.Thread 5.0 中的 java.util.concurrent 6.0 中的 Phasers 等 7.0 中的 Fork/Join 框架 8.0 中的 Lambda
Stream
具有平行处理能力,处理的过程会分而治之,也就是将一个大任务切分成多个小任务,这表示每个任务都是一个操作:List numbers = Arrays.asList(1, 2, 3, 4, 5, 6, 7, 8, 9);
numbers.parallelStream()
.forEach(out::println);
forEachOrdered
方法执行终止操作:List numbers = Arrays.asList(1, 2, 3, 4, 5, 6, 7, 8, 9);
numbers.parallelStream()
.forEachOrdered(out::println);
Stream
接口的相关知识。BaseStream接口
Stream
的父接口是BaseStream
,后者是所有流实现的顶层接口,定义如下:public interface BaseStream<T, S extends BaseStream<T, S>>
extends AutoCloseable {
Iteratoriterator() ;
Spliteratorspliterator() ;
boolean isParallel();
S sequential();
S parallel();
S unordered();
S onClose(Runnable closeHandler);
void close();
}
T
为流中元素的类型,S
为一个BaseStream
的实现类,它里面的元素也是T
并且S
同样是自己:S extends BaseStream
S
的使用就知道了:如sequential()
、parallel()
这两个方法,它们都返回了S
实例,也就是说它们分别支持对当前流进行串行
或者并行
的操作,并返回「改变」后的流对象。如果是 并行
一定涉及到对当前流的拆分,即将一个流拆分成多个子流,子流肯定和父流的类型是一致的。子流可以继续拆分子流,一直拆分下去…
S
是BaseStream
的一个实现类,它同样是一个流,比如Stream
、IntStream
、LongStream
等。Stream接口
Stream
的接口声明:public interface Stream extends BaseStream >
Stream
可以继续拆分为Stream
,我们可以通过它的一些方法来证实:Stream filter(Predicate super T> predicate) ;Stream map(Function super T, ? extends R> mapper) ;Stream flatMap(Function super T, ? extends Stream extends R>> mapper) ;
Streamsorted() ;
Streampeek(Consumer super T> action) ;
Streamlimit(long maxSize) ;
Streamskip(long n) ;
...
中间操作
,它们的返回结果必须是流对象本身。关闭流操作
AutoCloseable
接口,也就是 close()
方法会在流关闭时被调用。同时,BaseStream
中还给我们提供了onClose()
方法:/** * Returns an equivalent stream with an additional close handler. Close * handlers are run when the {@link #close()} method * is called on the stream, and are executed in the order they were * added. All close handlers are run, even if earlier close handlers throw * exceptions. If any close handler throws an exception, the first * exception thrown will be relayed to the caller of {@code close()}, with * any remaining exceptions added to that exception as suppressed exceptions * (unless one of the remaining exceptions is the same exception as the * first exception, since an exception cannot suppress itself.) May * return itself. * * This is an intermediate * operation. * * @param closeHandler A task to execute when the stream is closed * @return a stream with a handler that is run if the stream is closed */
S onClose(Runnable closeHandler);
AutoCloseable
的close()
接口被调用的时候会触发调用流对象的onClose()
方法,但有几点需要注意:onClose()
方法会返回流对象本身,也就是说可以对改对象进行多次调用如果调用了多个
onClose()
方法,它会按照调用的顺序触发,但是如果某个方法有异常则只会向上抛出第一个异常前一个
onClose()
方法抛出了异常不会影响后续onClose()
方法的使用如果多个
onClose()
方法都抛出异常,只展示第一个异常的堆栈,而其他异常会被压缩,只展示部分信息
并行流和串行流
BaseStream
接口中分别提供了并行流
和串行流
两个方法,这两个方法可以任意调用若干次,也可以混合调用,但最终只会以最后一次方法调用的返回结果为准
。parallel()
方法的说明:Returns an equivalent stream that is parallel. May return itself, either because the stream was already parallel, or because the underlying stream state was modified to be parallel.
parallel()
为准,最终是并行地计算sum
:stream.parallel()
.filter(...)
.sequential()
.map(...)
.parallel()
.sum();
ParallelStream背后的男人:ForkJoinPool
两个500 万的排序任务
和一个针对这两组500万数据的合并任务
。问题的关键在于,对于一个任务而言,只有当它所有的子任务完成之后,它才能够被执行,想象一下归并排序的过程。
使用ForkJoinPool时,就能够让其中的线程创建新的任务,并挂起当前的任务,此时线程就能够从队列中选择子任务执行
。每个工作线程都有自己的工作队列WorkQueue; 这是一个双端队列dequeue,它是线程私有的; ForkJoinTask中fork的子任务,将放入运行该任务的工作线程的队头,工作线程将以LIFO的顺序来处理工作队列中的任务,即堆栈的方式; 为了最大化地利用CPU,空闲的线程将从其它线程的队列中「窃取」任务来执行 但是是从工作队列的尾部窃取任务,以减少和队列所属线程之间的竞争; 双端队列的操作:push()/pop()仅在其所有者工作线程中调用,poll()是由其它线程窃取任务时调用的; 当只剩下最后一个任务时,还是会存在竞争,是通过CAS来实现的;
用ForkJoinPool的眼光来看ParallelStream
List userInfoList =
DaoContainers.getUserInfoDAO().queryAllByList(new UserInfoModel());
userInfoList.parallelStream().forEach(RedisUserApi::setUserIdUserInfo);
forEach
方法会为每个元素的计算操作创建一个任务,该任务会被前文中提到的ForkJoinPool
中的commonPool处理。以上的并行计算逻辑当然也可以使用ThreadPoolExecutor
完成,但是就代码的可读性和代码量而言,使用ForkJoinPool
明显更胜一筹。ForkJoinPool
通用线程池的线程数量,通常使用默认值就可以了,即运行时计算机的处理器数量。也可以通过设置系统属性:-Djava.util.concurrent .ForkJoinPool.common.parallelism=N
(N为线程数量),来调整ForkJoinPool
的线程数量。N+1
,1就是当前的主线程
。public static String query(String question) {
Listengines = new ArrayList ();
engines.add("http://www.google.com/?q=");
engines.add("http://duckduckgo.com/?q=");
engines.add("http://www.bing.com/search?q=");
// get element as soon as it is available
Optionalresult = engines.stream().parallel().map((base) - {
String url = base + question;
// open connection and fetch the result
return WS.url(url).get();
}).findAny();
return result.get();
}
这个并行流计算操作将由主线程和JVM默认的
ForkJoinPool.commonPool()
来共同执行。map
中是一个阻塞方法,需要通过访问HTTP
接口并得到它的response
,所以任何一个worker线程在执行到这里的时候都会阻塞并等待结果。所以当此时再其他地方通过并行流方式调用计算方法的时候,将会受到此处阻塞等待的方法的影响。
目前的
ForkJoinPool
的实现并未考虑补偿等待那些阻塞在等待新生成的线程的工作worker线程,所以最终ForkJoinPool.commonPool()
中的线程将备用光并且阻塞等待。
正如我们上面那个列子的情况分析得知,lambda的执行并不是瞬间完成的,所有使用parallel streams的程序都有可能成为阻塞程序的源头, 并且在执行过程中程序中的其他部分将无法访问这些workers,这意味着任何依赖parallel streams的程序在什么别的东西占用着common ForkJoinPool时将会变得不可预知并且暗藏危机。
当需要处理递归分治算法时,考虑使用ForkJoinPool。
仔细设置不再进行任务划分的阈值,这个阈值对性能有影响。
Java 8中的一些特性会使用到ForkJoinPool中的通用线程池。在某些场合下,需要调整该线程池的默认的线程数量
lambda应该尽量避免副作用,也就是说,避免突变基于堆的状态以及任何IO
lambda应该互不干扰,也就是说避免修改数据源(因为这可能带来线程安全的问题)
避免访问在流操作生命周期内可能会改变的状态
并行流的性能
数据大小:数据够大,每个管道处理时间够长,并行才有意义;
源数据结构:每个管道操作都是基于初始数据源,通常是集合,将不同的集合数据源分割会有一定消耗;
装箱:处理基本类型比装箱类型要快;
核的数量:默认情况下,核数量越多,底层fork/join线程池启动线程就越多;
单元处理开销:花在流中每个元素身上的时间越长,并行操作带来的性能提升越明显;
性能好:
ArrayList
、数组或IntStream.range
(数据支持随机读取,能轻易地被任意分割)性能一般:
HashSet
、TreeSet
(数据不易公平地分解,大部分也是可以的)性能差:
LinkedList
(需要遍历链表,难以对半分解)、Stream.iterate
和BufferedReader.lines
(长度未知,难以分解)
NQ模型
SHA-1
哈希值要少得多。为每个元素完成的工作越多,“大到足够利用并行性” 的阈值就越低。类似地,拥有的数据越多, 拆分的分段就越多,而不会与 “太小” 阈值发生冲突。NQ
模型,其中 N
是数据元素数量,Q
是为每个元素执行的工作量。乘积 N*Q
越大,就越有可能获得并行提速。对于具有很小的 Q
的问题,比如对数字求和,您通常可能希望看到 N > 10,000
以获得提速;随着 Q
增加,获得提速所需的数据大小将会减小。Q
更高的操作来缓解。尽管拆分某个 LinkedList
特征的结果可能很糟糕,但只要拥有足够大的 Q
,仍然可能获得并行提速。遇到顺序
ORDERED
描述了流是否有有意义的遇到顺序。JDK 集合的 spliterator
会根据集合的规范来设置此标志;一些中间操作可能注入 ORDERED
(sorted()
) 或清除它 (unordered()
)。reduce()
)),遵守遇到顺序不会产生任何实际成本。但对于其他操作(有状态中间操作,其语义与遇到顺序关联的终止操作,比如 findFirst()
或 forEachOrdered()
), 在并行执行中遵守遇到顺序的责任可能很重大。如果流有一个已定义的遇到顺序,但该顺序对结果没有意义, 那么可以通过使用 unordered()
操作删除 ORDERED
标志,加速包含顺序敏感型操作的管道的顺序执行。limit()
,它会在指定大小处截断一个流。在顺序执行中实现 limit()
很简单:保留一个已看到多少元素的计数器,在这之后丢弃任何元素。但是在并行执行中,实现 limit()
要复杂得多;您需要保留前 N
个元素。此要求大大限制了利用并行性的能力;如果输入划分为多个部分,您只有在某个部分之前的所有部分都已完成后,才知道该部分的结果是否将包含在最终结果中。因此,该实现一般会错误地选择不使用所有可用的核心,或者缓存整个试验性结果,直到您达到目标长度。limit()
操作可以自由选择任何 N
个元素,这让执行效率变得高得多。知道元素后可立即将其发往下游, 无需任何缓存,而且线程之间唯一需要执行的协调是发送一个信号来确保未超出目标流长度。sorted()
操作会实现一种稳定 排序 (相同的元素按照它们进入输入时的相同顺序出现在输出中),而对于无序的流,稳定性(具有成本)不是必需的。 distinct()
具有类似的情况:如果流有一个遇到顺序,那么对于多个相同的输入元素,distinct()
必须发出其中的第一个, 而对于无序的流,它可以发出任何元素 — 同样可以获得高效得多的并行实现。collect()
聚合时会遇到类似的情形。如果在无序流上执行 collect(groupingBy()
) 操作, 与任何键对应的元素都必须按它们在输入中出现的顺序提供给下游收集器。此顺序对应用程序通常没有什么意义,而且任何顺序都没有意义。在这些情况下,可能最好选择一个并发 收集器(比如 groupingByConcurrent()
),它可以忽略遇到顺序, 并让所有线程直接收集到一个共享的并发数据结构中(比如 ConcurrentHashMap
),而不是让每个线程收集到它自己的中间映射中, 然后再合并中间映射(这可能产生很高的成本)。什么时候该使用并行流
parallelStream
的使用注意事项需要格外注意,它并不是解决性能的万金油,相反,如果使用不当会严重影响性能。我会在另外一篇文章里单独谈这个问题。
逆锋起笔
是一个专注于程序员圈子的技术平台,你可以收获最新技术动态
、最新内测资格
、BAT等大厂的经验
、精品学习资料
、职业路线
、副业思维
,微信搜索逆锋起笔
关注!
References
http://movingon.cn/2017/05/02/jdk8-Stream-BaseStream-%E6%BA%90%E7%A0%81%E9%9A%BE%E7%82%B9%E6%B5%85%E6%9E%901/ https://www.jianshu.com/p/bd825cb89e00 https://jrebel.com/rebellabs/java-parallel-streams-are-bad-for-your-health/ https://blog.csdn.net/weixx3/article/details/81266552 https://www.ibm.com/developerworks/cn/java/j-java-streams-5-brian-goetz/index.html https://www.ibm.com/developerworks/cn/java/j-java-streams-3-brian-goetz/index.html https://juejin.im/post/5dc5a148f265da4d4f65c191 https://stackoverrun.com/cn/q/10341100