Java 8 - 转换列表的最佳方式:map 还是 foreach?
Java 8 - Best way to transform a list: map or foreach?
我有一个列表 myListToParse
,我想在其中过滤元素并对每个元素应用一个方法,然后将结果添加到另一个列表 myFinalList
。
使用 Java 8 我注意到我可以用两种不同的方式来完成。我想知道它们之间更有效的方式,并理解为什么一种方式比另一种方式更好。
我愿意接受关于第三种方式的任何建议。
方法一:
myFinalList = new ArrayList<>();
myListToParse.stream()
.filter(elt -> elt != null)
.forEach(elt -> myFinalList.add(doSomething(elt)));
方法二:
myFinalList = myListToParse.stream()
.filter(elt -> elt != null)
.map(elt -> doSomething(elt))
.collect(Collectors.toList());
我更喜欢第二种方式
当您使用第一种方式时,如果您决定使用并行流来提高性能,您将无法控制 forEach
将元素添加到输出列表的顺序.
当您使用 toList
时,即使您使用并行流,流 API 也会保留顺序。
不要担心任何性能差异,通常在这种情况下它们会很小。
方法 2 更可取,因为
它不需要改变存在于 lambda 表达式之外的集合。
它更具可读性,因为在收集管道中执行的不同步骤是按顺序编写的:首先是过滤操作,然后是映射操作,然后是收集结果(有关的好处的更多信息收集管道,请参阅 Martin Fowler 的 excellent article。)
您可以通过替换使用的 Collector
轻松更改收集值的方式。在某些情况下,您可能需要编写自己的 Collector
,但这样做的好处是您可以轻松地重用它。
我同意现有的答案,第二种形式更好,因为它没有任何副作用并且更容易并行化(只需使用并行流)。
就性能而言,在您开始使用并行流之前,它们似乎是等效的。在那种情况下,map 的表现会好得多。请参阅下面的 micro benchmark 结果:
Benchmark Mode Samples Score Error Units
SO28319064.forEach avgt 100 187.310 ± 1.768 ms/op
SO28319064.map avgt 100 189.180 ± 1.692 ms/op
SO28319064.mapWithParallelStream avgt 100 55,577 ± 0,782 ms/op
您不能以相同的方式提升第一个示例,因为 forEach 是一个终端方法 - 它 returns void - 所以您被迫使用有状态的拉姆达。但是 that is really a bad idea if you are using parallel streams.
最后请注意,您的第二个片段可以使用方法引用和静态导入以更简洁的方式编写:
myFinalList = myListToParse.stream()
.filter(Objects::nonNull)
.map(this::doSomething)
.collect(toList());
使用流的主要好处之一是它提供了以声明方式处理数据的能力,即使用函数式编程风格。它还免费提供多线程功能,这意味着无需编写任何额外的多线程代码即可使您的流并发。
假设您正在探索这种编程风格的原因是您想要利用这些好处,那么您的第一个代码示例可能无法运行,因为 foreach
方法被归类为终端(这意味着它可以产生副作用)。
从函数式编程的角度来看,第二种方式是首选,因为 map 函数可以接受无状态的 lambda 函数。更明确地说,传递给 map 函数的 lambda 应该是
- 非干扰,这意味着如果流是非并发的(例如
ArrayList
),函数不应更改流的来源。
- 无状态以避免并行处理时出现意外结果(由线程调度差异引起)。
第二种方法的另一个好处是如果流是并行的并且收集器是并发且无序的,那么这些特征可以为缩减操作提供有用的提示以并发进行收集。
如果你使用Eclipse Collections,你可以使用collectIf()
方法。
MutableList<Integer> source =
Lists.mutable.with(1, null, 2, null, 3, null, 4, null, 5);
MutableList<String> result = source.collectIf(Objects::nonNull, String::valueOf);
Assert.assertEquals(Lists.immutable.with("1", "2", "3", "4", "5"), result);
它会急切地求值,应该比使用 Stream 快一点。
注意:我是 Eclipse Collections 的提交者。
还有第三种选择 - 使用 stream().toArray()
- 请参阅 why didn't stream have a toList method 下的评论。结果证明它比 forEach() 或 collect() 慢,而且表现力差。它可能会在以后的 JDK 版本中进行优化,因此将其添加到此处以防万一。
假设List<String>
myFinalList = Arrays.asList(
myListToParse.stream()
.filter(Objects::nonNull)
.map(this::doSomething)
.toArray(String[]::new)
);
使用微型基准、100 万个条目、20% 的空值和 doSomething() 中的简单转换
private LongSummaryStatistics benchmark(final String testName, final Runnable methodToTest, int samples) {
long[] timing = new long[samples];
for (int i = 0; i < samples; i++) {
long start = System.currentTimeMillis();
methodToTest.run();
timing[i] = System.currentTimeMillis() - start;
}
final LongSummaryStatistics stats = Arrays.stream(timing).summaryStatistics();
System.out.println(testName + ": " + stats);
return stats;
}
结果是
并行:
toArray: LongSummaryStatistics{count=10, sum=3721, min=321, average=372,100000, max=535}
forEach: LongSummaryStatistics{count=10, sum=3502, min=249, average=350,200000, max=389}
collect: LongSummaryStatistics{count=10, sum=3325, min=265, average=332,500000, max=368}
顺序:
toArray: LongSummaryStatistics{count=10, sum=5493, min=517, average=549,300000, max=569}
forEach: LongSummaryStatistics{count=10, sum=5316, min=427, average=531,600000, max=571}
collect: LongSummaryStatistics{count=10, sum=5380, min=444, average=538,000000, max=557}
没有空值和过滤器的并行(所以流是 SIZED
):
toArrays 在这种情况下具有最佳性能,并且 .forEach()
在接收方 ArrayList 上以 "indexOutOfBounds" 失败,必须替换为 .forEachOrdered()
toArray: LongSummaryStatistics{count=100, sum=75566, min=707, average=755,660000, max=1107}
forEach: LongSummaryStatistics{count=100, sum=115802, min=992, average=1158,020000, max=1254}
collect: LongSummaryStatistics{count=100, sum=88415, min=732, average=884,150000, max=1014}
可能是方法三。
我总是喜欢将逻辑分开。
Predicate<Long> greaterThan100 = new Predicate<Long>() {
@Override
public boolean test(Long currentParameter) {
return currentParameter > 100;
}
};
List<Long> sourceLongList = Arrays.asList(1L, 10L, 50L, 80L, 100L, 120L, 133L, 333L);
List<Long> resultList = sourceLongList.parallelStream().filter(greaterThan100).collect(Collectors.toList());
如果可以使用 3rd Pary Libaries cyclops-react 定义具有内置此功能的惰性扩展集合。例如,我们可以简单地写
ListX myListToParse;
ListX myFinalList = myListToParse.filter(elt -> elt != null)
.map(elt -> doSomething(elt));
myFinalList 在第一次访问之前不会被评估(并且在实体化列表被缓存和重用之后)。
[披露我是 cyclops-react 的首席开发人员]
我有一个列表 myListToParse
,我想在其中过滤元素并对每个元素应用一个方法,然后将结果添加到另一个列表 myFinalList
。
使用 Java 8 我注意到我可以用两种不同的方式来完成。我想知道它们之间更有效的方式,并理解为什么一种方式比另一种方式更好。
我愿意接受关于第三种方式的任何建议。
方法一:
myFinalList = new ArrayList<>();
myListToParse.stream()
.filter(elt -> elt != null)
.forEach(elt -> myFinalList.add(doSomething(elt)));
方法二:
myFinalList = myListToParse.stream()
.filter(elt -> elt != null)
.map(elt -> doSomething(elt))
.collect(Collectors.toList());
我更喜欢第二种方式
当您使用第一种方式时,如果您决定使用并行流来提高性能,您将无法控制 forEach
将元素添加到输出列表的顺序.
当您使用 toList
时,即使您使用并行流,流 API 也会保留顺序。
不要担心任何性能差异,通常在这种情况下它们会很小。
方法 2 更可取,因为
它不需要改变存在于 lambda 表达式之外的集合。
它更具可读性,因为在收集管道中执行的不同步骤是按顺序编写的:首先是过滤操作,然后是映射操作,然后是收集结果(有关的好处的更多信息收集管道,请参阅 Martin Fowler 的 excellent article。)
您可以通过替换使用的
Collector
轻松更改收集值的方式。在某些情况下,您可能需要编写自己的Collector
,但这样做的好处是您可以轻松地重用它。
我同意现有的答案,第二种形式更好,因为它没有任何副作用并且更容易并行化(只需使用并行流)。
就性能而言,在您开始使用并行流之前,它们似乎是等效的。在那种情况下,map 的表现会好得多。请参阅下面的 micro benchmark 结果:
Benchmark Mode Samples Score Error Units
SO28319064.forEach avgt 100 187.310 ± 1.768 ms/op
SO28319064.map avgt 100 189.180 ± 1.692 ms/op
SO28319064.mapWithParallelStream avgt 100 55,577 ± 0,782 ms/op
您不能以相同的方式提升第一个示例,因为 forEach 是一个终端方法 - 它 returns void - 所以您被迫使用有状态的拉姆达。但是 that is really a bad idea if you are using parallel streams.
最后请注意,您的第二个片段可以使用方法引用和静态导入以更简洁的方式编写:
myFinalList = myListToParse.stream()
.filter(Objects::nonNull)
.map(this::doSomething)
.collect(toList());
使用流的主要好处之一是它提供了以声明方式处理数据的能力,即使用函数式编程风格。它还免费提供多线程功能,这意味着无需编写任何额外的多线程代码即可使您的流并发。
假设您正在探索这种编程风格的原因是您想要利用这些好处,那么您的第一个代码示例可能无法运行,因为 foreach
方法被归类为终端(这意味着它可以产生副作用)。
从函数式编程的角度来看,第二种方式是首选,因为 map 函数可以接受无状态的 lambda 函数。更明确地说,传递给 map 函数的 lambda 应该是
- 非干扰,这意味着如果流是非并发的(例如
ArrayList
),函数不应更改流的来源。 - 无状态以避免并行处理时出现意外结果(由线程调度差异引起)。
第二种方法的另一个好处是如果流是并行的并且收集器是并发且无序的,那么这些特征可以为缩减操作提供有用的提示以并发进行收集。
如果你使用Eclipse Collections,你可以使用collectIf()
方法。
MutableList<Integer> source =
Lists.mutable.with(1, null, 2, null, 3, null, 4, null, 5);
MutableList<String> result = source.collectIf(Objects::nonNull, String::valueOf);
Assert.assertEquals(Lists.immutable.with("1", "2", "3", "4", "5"), result);
它会急切地求值,应该比使用 Stream 快一点。
注意:我是 Eclipse Collections 的提交者。
还有第三种选择 - 使用 stream().toArray()
- 请参阅 why didn't stream have a toList method 下的评论。结果证明它比 forEach() 或 collect() 慢,而且表现力差。它可能会在以后的 JDK 版本中进行优化,因此将其添加到此处以防万一。
假设List<String>
myFinalList = Arrays.asList(
myListToParse.stream()
.filter(Objects::nonNull)
.map(this::doSomething)
.toArray(String[]::new)
);
使用微型基准、100 万个条目、20% 的空值和 doSomething() 中的简单转换
private LongSummaryStatistics benchmark(final String testName, final Runnable methodToTest, int samples) {
long[] timing = new long[samples];
for (int i = 0; i < samples; i++) {
long start = System.currentTimeMillis();
methodToTest.run();
timing[i] = System.currentTimeMillis() - start;
}
final LongSummaryStatistics stats = Arrays.stream(timing).summaryStatistics();
System.out.println(testName + ": " + stats);
return stats;
}
结果是
并行:
toArray: LongSummaryStatistics{count=10, sum=3721, min=321, average=372,100000, max=535}
forEach: LongSummaryStatistics{count=10, sum=3502, min=249, average=350,200000, max=389}
collect: LongSummaryStatistics{count=10, sum=3325, min=265, average=332,500000, max=368}
顺序:
toArray: LongSummaryStatistics{count=10, sum=5493, min=517, average=549,300000, max=569}
forEach: LongSummaryStatistics{count=10, sum=5316, min=427, average=531,600000, max=571}
collect: LongSummaryStatistics{count=10, sum=5380, min=444, average=538,000000, max=557}
没有空值和过滤器的并行(所以流是 SIZED
):
toArrays 在这种情况下具有最佳性能,并且 .forEach()
在接收方 ArrayList 上以 "indexOutOfBounds" 失败,必须替换为 .forEachOrdered()
toArray: LongSummaryStatistics{count=100, sum=75566, min=707, average=755,660000, max=1107}
forEach: LongSummaryStatistics{count=100, sum=115802, min=992, average=1158,020000, max=1254}
collect: LongSummaryStatistics{count=100, sum=88415, min=732, average=884,150000, max=1014}
可能是方法三。
我总是喜欢将逻辑分开。
Predicate<Long> greaterThan100 = new Predicate<Long>() {
@Override
public boolean test(Long currentParameter) {
return currentParameter > 100;
}
};
List<Long> sourceLongList = Arrays.asList(1L, 10L, 50L, 80L, 100L, 120L, 133L, 333L);
List<Long> resultList = sourceLongList.parallelStream().filter(greaterThan100).collect(Collectors.toList());
如果可以使用 3rd Pary Libaries cyclops-react 定义具有内置此功能的惰性扩展集合。例如,我们可以简单地写
ListX myListToParse;
ListX myFinalList = myListToParse.filter(elt -> elt != null) .map(elt -> doSomething(elt));
myFinalList 在第一次访问之前不会被评估(并且在实体化列表被缓存和重用之后)。
[披露我是 cyclops-react 的首席开发人员]