代码之家  ›  专栏  ›  技术社区  ›  en Peris

parallelStream()比stream()慢[重复]

  •  0
  • en Peris  · 技术社区  · 5 年前

    我正在玩Java 8的流,无法理解我得到的性能结果。我有2核CPU(Intel i73520M)、Windows 8 x64和64位Java 8 update 5。我正在对字符串的流/并行流进行简单的映射,发现并行版本有点慢。

    Function<Stream<String>, Long> timeOperation = (Stream<String> stream) -> {
      long time1 = System.nanoTime();
      final List<String> list = 
         stream
           .map(String::toLowerCase)
           .collect(Collectors.toList());
      long time2 = System.nanoTime();
      return time2 - time1;
    };
    
    Consumer<Stream<String>> printTime = stream ->
      System.out.println(timeOperation.apply(stream) / 1000000f);
    
    String[] array = new String[1000000];
    Arrays.fill(array, "AbabagalamagA");
    
    printTime.accept(Arrays.stream(array));            // prints around 600
    printTime.accept(Arrays.stream(array).parallel()); // prints around 900
    

    考虑到我有两个CPU核,并行版本不应该更快吗? 有人能告诉我为什么并行版本比较慢吗?

    0 回复  |  直到 6 年前
        1
  •  170
  •   Stuart Marks    9 年前

    可以说,这里同时存在着几个问题。

    首先,并行解决问题总是需要执行比按顺序执行更多的实际工作。开销涉及在多个线程之间拆分工作以及连接或合并结果。像将短字符串转换为小写这样的问题足够小,以至于它们有被并行拆分开销淹没的危险。

    第二个问题是,对Java程序进行基准测试非常微妙,很容易得到令人困惑的结果。两个常见问题是JIT编译和死代码消除。短期基准测试通常在JIT编译之前或期间完成,因此它们不是在衡量峰值吞吐量,实际上,它们可能是在衡量JIT本身。编译发生的时间有点不确定,因此可能会导致结果也发生很大变化。

    对于小型合成基准测试,工作负载通常会计算丢弃的结果。JIT编译器非常擅长检测这一点,并消除不会产生任何地方使用的结果的代码。这种情况可能不会发生,但如果您修补其他合成工作负载,它肯定会发生。当然,如果JIT消除了基准工作负载,那么基准将变得无用。

    我强烈建议使用完善的基准测试框架,如 JMH 而不是自己动手滚动。JMH有助于避免常见的基准测试陷阱,包括这些陷阱,而且它的设置和运行非常简单。下面是转换为使用JMH的基准测试:

    package com.stackoverflow.questions;
    
    import java.util.Arrays;
    import java.util.List;
    import java.util.stream.Collectors;
    import java.util.concurrent.TimeUnit;
    
    import org.openjdk.jmh.annotations.*;
    
    public class SO23170832 {
        @State(Scope.Benchmark)
        public static class BenchmarkState {
            static String[] array;
            static {
                array = new String[1000000];
                Arrays.fill(array, "AbabagalamagA");
            }
        }
    
        @GenerateMicroBenchmark
        @OutputTimeUnit(TimeUnit.SECONDS)
        public List<String> sequential(BenchmarkState state) {
            return
                Arrays.stream(state.array)
                      .map(x -> x.toLowerCase())
                      .collect(Collectors.toList());
        }
    
        @GenerateMicroBenchmark
        @OutputTimeUnit(TimeUnit.SECONDS)
        public List<String> parallel(BenchmarkState state) {
            return
                Arrays.stream(state.array)
                      .parallel()
                      .map(x -> x.toLowerCase())
                      .collect(Collectors.toList());
        }
    }
    

    我使用以下命令运行此命令:

    java -jar dist/microbenchmarks.jar ".*SO23170832.*" -wi 5 -i 5 -f 1
    

    (选项指示五个预热迭代、五个基准迭代和一个分叉JVM。)在运行过程中,JMH会发出大量冗长的消息,我已经省略了这些消息。总结结果如下。

    Benchmark                       Mode   Samples         Mean   Mean error    Units
    c.s.q.SO23170832.parallel      thrpt         5        4.600        5.995    ops/s
    c.s.q.SO23170832.sequential    thrpt         5        1.500        1.727    ops/s
    

    请注意,结果是以每秒操作数为单位的,因此看起来并行运行的速度大约是顺序运行的三倍。但我的机器只有两个核心。Hmmm.每次运行的平均误差实际上大于平均运行时间!沃特?这里有点可疑。

    这就引出了第三个问题。更仔细地观察工作负载,我们可以看到它为每个输入分配了一个新的字符串对象,并且它还将结果收集到一个列表中,这涉及到大量的重新分配和复制。我猜这将导致相当数量的垃圾收集。通过在启用GC消息的情况下重新运行基准测试,我们可以看到这一点:

    java -verbose:gc -jar dist/microbenchmarks.jar ".*SO23170832.*" -wi 5 -i 5 -f 1
    

    这会产生如下结果:

    [GC (Allocation Failure)  512K->432K(130560K), 0.0024130 secs]
    [GC (Allocation Failure)  944K->520K(131072K), 0.0015740 secs]
    [GC (Allocation Failure)  1544K->777K(131072K), 0.0032490 secs]
    [GC (Allocation Failure)  1801K->1027K(132096K), 0.0023940 secs]
    # Run progress: 0.00% complete, ETA 00:00:20
    # VM invoker: /Users/src/jdk/jdk8-b132.jdk/Contents/Home/jre/bin/java
    # VM options: -verbose:gc
    # Fork: 1 of 1
    [GC (Allocation Failure)  512K->424K(130560K), 0.0015460 secs]
    [GC (Allocation Failure)  933K->552K(131072K), 0.0014050 secs]
    [GC (Allocation Failure)  1576K->850K(131072K), 0.0023050 secs]
    [GC (Allocation Failure)  3075K->1561K(132096K), 0.0045140 secs]
    [GC (Allocation Failure)  1874K->1059K(132096K), 0.0062330 secs]
    # Warmup: 5 iterations, 1 s each
    # Measurement: 5 iterations, 1 s each
    # Threads: 1 thread, will synchronize iterations
    # Benchmark mode: Throughput, ops/time
    # Benchmark: com.stackoverflow.questions.SO23170832.parallel
    # Warmup Iteration   1: [GC (Allocation Failure)  7014K->5445K(132096K), 0.0184680 secs]
    [GC (Allocation Failure)  7493K->6346K(135168K), 0.0068380 secs]
    [GC (Allocation Failure)  10442K->8663K(135168K), 0.0155600 secs]
    [GC (Allocation Failure)  12759K->11051K(139776K), 0.0148190 secs]
    [GC (Allocation Failure)  18219K->15067K(140800K), 0.0241780 secs]
    [GC (Allocation Failure)  22167K->19214K(145920K), 0.0208510 secs]
    [GC (Allocation Failure)  29454K->25065K(147456K), 0.0333080 secs]
    [GC (Allocation Failure)  35305K->30729K(153600K), 0.0376610 secs]
    [GC (Allocation Failure)  46089K->39406K(154624K), 0.0406060 secs]
    [GC (Allocation Failure)  54766K->48299K(164352K), 0.0550140 secs]
    [GC (Allocation Failure)  71851K->62725K(165376K), 0.0612780 secs]
    [GC (Allocation Failure)  86277K->74864K(184320K), 0.0649210 secs]
    [GC (Allocation Failure)  111216K->94203K(185856K), 0.0875710 secs]
    [GC (Allocation Failure)  130555K->114932K(199680K), 0.1030540 secs]
    [GC (Allocation Failure)  162548K->141952K(203264K), 0.1315720 secs]
    [Full GC (Ergonomics)  141952K->59696K(159232K), 0.5150890 secs]
    [GC (Allocation Failure)  105613K->85547K(184832K), 0.0738530 secs]
    1.183 ops/s
    

    注意:以开头的行 # 是正常的JMH输出线。其余的都是GC消息。这只是五个预热迭代中的第一个,它先于五个基准迭代。在其余的迭代过程中,GC消息以相同的方式继续。我认为可以肯定地说,衡量的性能主要由GC开销决定,报告的结果不应该被相信。

    目前还不清楚该怎么办。这纯粹是一个合成工作负载。与分配和复制相比,它显然只需要很少的CPU时间来完成实际工作。很难说你真正想要衡量的是什么。一种方法是提出一种在某种意义上更“真实”的不同工作负载另一种方法是更改heap和GC参数,以避免在基准测试运行期间使用GC。

        2
  •  17
  •   nosid    6 年前

    在进行基准测试时,您应该注意JIT编译,并且计时行为可能会根据JIT编译的代码路径的数量而改变。如果我在测试程序中添加一个预热阶段,那么并行版本比顺序版本快一点。以下是结果:

    Warmup...
    Benchmark...
    Run 0:  sequential 0.12s  -  parallel 0.11s
    Run 1:  sequential 0.13s  -  parallel 0.08s
    Run 2:  sequential 0.15s  -  parallel 0.08s
    Run 3:  sequential 0.12s  -  parallel 0.11s
    Run 4:  sequential 0.13s  -  parallel 0.08s
    

    下面的代码片段包含我用于此测试的完整源代码。

    public static void main(String... args) {
        String[] array = new String[1000000];
        Arrays.fill(array, "AbabagalamagA");
        System.out.println("Warmup...");
        for (int i = 0; i < 100; ++i) {
            sequential(array);
            parallel(array);
        }
        System.out.println("Benchmark...");
        for (int i = 0; i < 5; ++i) {
            System.out.printf("Run %d:  sequential %s  -  parallel %s\n",
                i,
                test(() -> sequential(array)),
                test(() -> parallel(array)));
        }
    }
    private static void sequential(String[] array) {
        Arrays.stream(array).map(String::toLowerCase).collect(Collectors.toList());
    }
    private static void parallel(String[] array) {
        Arrays.stream(array).parallel().map(String::toLowerCase).collect(Collectors.toList());
    }
    private static String test(Runnable runnable) {
        long start = System.currentTimeMillis();
        runnable.run();
        long elapsed = System.currentTimeMillis() - start;
        return String.format("%4.2fs", elapsed / 1000.0);
    }
    
        3
  •  10
  •   Sergio    3 年前

    使用多个线程处理数据有一些初始设置成本,例如初始化线程池。这些成本可能会超过使用这些线程的收益,尤其是在运行时已经很低的情况下。此外,如果存在争用,例如运行的其他线程、后台进程等,则并行处理的性能可能会进一步降低。

    这个问题对于并行处理来说并不新鲜。本文根据Java 8提供了一些细节 parallel() 还有一些需要考虑的事情: https://dzone.com/articles/think-twice-using-java-8

        4
  •  2
  •   Prathamesh Ketgale    5 年前

    Java中的流实现在默认情况下是顺序的,除非在并行中明确提到它。当一个流并行执行时,Java运行时将该流划分为多个子流。聚合操作并行地迭代和处理这些子流,然后合并结果。 所以,若开发人员对顺序流有性能影响,可以使用并行流。 请检查性能比较: https://github.com/prathamket/Java-8/blob/master/Performance_Implications.java 您将了解有关性能的总体信息。