了解 Clojure 传感器性能
Understanding Clojure Transducer Performance
在较高层次上,我了解到使用转换器不会创建任何中间数据结构,而通过 ->>
进行的长链操作会创建,因此转换器方法的性能更高。我在下面的一个例子中证明了这一点。但是,当我将 clojure.core.async/chan
添加到组合中时,我没有获得预期的相同性能改进。显然有一些我不明白的地方,我希望得到解释。
(ns dev
(:require [clojure.core.async :as async]
[criterium.core :as crit]))
;; Setup some toy data.
(def n 1e6)
(def data (repeat n "1"))
;; Reusable thread-last operation (the "slower" one).
(defn tx [x]
(->> x
(map #(Integer. %))
(map inc) (map inc) (map inc) (map inc) (map inc) (map inc)
(map inc) (map inc) (map inc) (map inc) (map inc)))
;; Reusable transducer (the "faster" one).
(def xf (comp
(map #(Integer. %))
(map inc) (map inc) (map inc) (map inc) (map inc) (map inc)
(map inc) (map inc) (map inc) (map inc) (map inc)))
;; For these first two I expect the second to be faster and it is.
(defn nested []
(last (tx data)))
(defn into-xf []
(last (into [] xf data)))
;; For the next two I again expect the second to be faster but it is NOT.
(defn chan-then-nested []
(let [c (async/chan n)]
(async/onto-chan! c data)
(->> c
(async/into [])
async/<!!
tx
last)))
(defn chan-xf []
(let [c (async/chan n xf)]
(async/onto-chan! c data)
(->> c
(async/into [])
async/<!!
last)))
(comment
(crit/quick-bench (nested)) ; 1787.672 ms
(crit/quick-bench (into-xf)) ; 822.8626 ms
(crit/quick-bench (chan-then-nested)) ; 1535.628 ms
(crit/quick-bench (chan-xf)) ; 2072.626 ms
;; Expected ranking fastest to slowest
;; into-xf
;; nested
;; chan-xf
;; chan-then-nested
;; Actual ranking fastest to slowest
;; into-xf
;; chan-then-nested
;; nested
;; chan-xf
)
最后有两个结果我不明白。首先,为什么使用带通道的换能器比读取通道外的所有内容然后做嵌套地图要慢?看起来,使用带通道的传感器的“开销”或不管是什么,速度要慢得多,以至于它压倒了不创建中间数据结构的好处。其次,这真的出乎意料,为什么将数据放入通道然后将其取下并 然后 使用嵌套映射技术比不使用通道更快跳舞并只使用嵌套地图技术? (简而言之,为什么 chan-then-nested
比 nested
快?)这全部或部分是否只是基准测试或随机性的产物? (我对其中的每一个都进行了多次 运行 quick-bench
,结果相同。)我想知道它是否与 into
调用 transduce
有关,而在频道版本根本没有以相同的方式实现。换能器提供相同的接口来跨向量或通道应用转换,但应用转换的方式不同;而这种差异造就了一切。
关于您的方法的一些评论:
- 拥有一个缓冲区大小为100万的通道是非常不寻常的。我不希望从这种用法中得出的基准对实际程序有很大的适用性。只需使用大小为 1 的缓冲区。这足以让此应用程序成功,并且更接近真实世界的使用情况。
- 没必要挑这么大的
n
。如果您的函数运行得更快,则 criterium 可以采集更多样本,从而更准确地估计其平均时间。 n=100 足够了。
进行这些更改后,这是我看到的基准数据:
Evaluation count : 14688 in 6 samples of 2448 calls.
Execution time mean : 39.978735 µs
Execution time std-deviation : 1.238587 µs
Execution time lower quantile : 38.870558 µs ( 2.5%)
Execution time upper quantile : 41.779784 µs (97.5%)
Overhead used : 10.162171 ns
Evaluation count : 20094 in 6 samples of 3349 calls.
Execution time mean : 30.557295 µs
Execution time std-deviation : 562.641738 ns
Execution time lower quantile : 29.936152 µs ( 2.5%)
Execution time upper quantile : 31.330094 µs (97.5%)
Overhead used : 10.162171 ns
Evaluation count : 762 in 6 samples of 127 calls.
Execution time mean : 740.642963 µs
Execution time std-deviation : 176.879454 µs
Execution time lower quantile : 515.588780 µs ( 2.5%)
Execution time upper quantile : 949.109898 µs (97.5%)
Overhead used : 10.162171 ns
Found 2 outliers in 6 samples (33.3333 %)
low-severe 1 (16.6667 %)
low-mild 1 (16.6667 %)
Variance from outliers : 64.6374 % Variance is severely inflated by outliers
Evaluation count : 816 in 6 samples of 136 calls.
Execution time mean : 748.782942 µs
Execution time std-deviation : 7.157018 µs
Execution time lower quantile : 740.139618 µs ( 2.5%)
Execution time upper quantile : 756.102312 µs (97.5%)
Overhead used : 10.162171 ns
要点是:
- 异步开销支配实际处理时间。两个通道版本都比非通道版本慢得多,所以我们不再需要担心“为什么把整个东西放到一个通道上然后再把它取下来更快”。
chan-then-nested
和 chan-xf
之间的差异比您的版本小得多。 chan-xf
仍然稍微慢一点,但很容易在一个标准偏差内:这并不是一个了不起的结果。
在较高层次上,我了解到使用转换器不会创建任何中间数据结构,而通过 ->>
进行的长链操作会创建,因此转换器方法的性能更高。我在下面的一个例子中证明了这一点。但是,当我将 clojure.core.async/chan
添加到组合中时,我没有获得预期的相同性能改进。显然有一些我不明白的地方,我希望得到解释。
(ns dev
(:require [clojure.core.async :as async]
[criterium.core :as crit]))
;; Setup some toy data.
(def n 1e6)
(def data (repeat n "1"))
;; Reusable thread-last operation (the "slower" one).
(defn tx [x]
(->> x
(map #(Integer. %))
(map inc) (map inc) (map inc) (map inc) (map inc) (map inc)
(map inc) (map inc) (map inc) (map inc) (map inc)))
;; Reusable transducer (the "faster" one).
(def xf (comp
(map #(Integer. %))
(map inc) (map inc) (map inc) (map inc) (map inc) (map inc)
(map inc) (map inc) (map inc) (map inc) (map inc)))
;; For these first two I expect the second to be faster and it is.
(defn nested []
(last (tx data)))
(defn into-xf []
(last (into [] xf data)))
;; For the next two I again expect the second to be faster but it is NOT.
(defn chan-then-nested []
(let [c (async/chan n)]
(async/onto-chan! c data)
(->> c
(async/into [])
async/<!!
tx
last)))
(defn chan-xf []
(let [c (async/chan n xf)]
(async/onto-chan! c data)
(->> c
(async/into [])
async/<!!
last)))
(comment
(crit/quick-bench (nested)) ; 1787.672 ms
(crit/quick-bench (into-xf)) ; 822.8626 ms
(crit/quick-bench (chan-then-nested)) ; 1535.628 ms
(crit/quick-bench (chan-xf)) ; 2072.626 ms
;; Expected ranking fastest to slowest
;; into-xf
;; nested
;; chan-xf
;; chan-then-nested
;; Actual ranking fastest to slowest
;; into-xf
;; chan-then-nested
;; nested
;; chan-xf
)
最后有两个结果我不明白。首先,为什么使用带通道的换能器比读取通道外的所有内容然后做嵌套地图要慢?看起来,使用带通道的传感器的“开销”或不管是什么,速度要慢得多,以至于它压倒了不创建中间数据结构的好处。其次,这真的出乎意料,为什么将数据放入通道然后将其取下并 然后 使用嵌套映射技术比不使用通道更快跳舞并只使用嵌套地图技术? (简而言之,为什么 chan-then-nested
比 nested
快?)这全部或部分是否只是基准测试或随机性的产物? (我对其中的每一个都进行了多次 运行 quick-bench
,结果相同。)我想知道它是否与 into
调用 transduce
有关,而在频道版本根本没有以相同的方式实现。换能器提供相同的接口来跨向量或通道应用转换,但应用转换的方式不同;而这种差异造就了一切。
关于您的方法的一些评论:
- 拥有一个缓冲区大小为100万的通道是非常不寻常的。我不希望从这种用法中得出的基准对实际程序有很大的适用性。只需使用大小为 1 的缓冲区。这足以让此应用程序成功,并且更接近真实世界的使用情况。
- 没必要挑这么大的
n
。如果您的函数运行得更快,则 criterium 可以采集更多样本,从而更准确地估计其平均时间。 n=100 足够了。
进行这些更改后,这是我看到的基准数据:
Evaluation count : 14688 in 6 samples of 2448 calls.
Execution time mean : 39.978735 µs
Execution time std-deviation : 1.238587 µs
Execution time lower quantile : 38.870558 µs ( 2.5%)
Execution time upper quantile : 41.779784 µs (97.5%)
Overhead used : 10.162171 ns
Evaluation count : 20094 in 6 samples of 3349 calls.
Execution time mean : 30.557295 µs
Execution time std-deviation : 562.641738 ns
Execution time lower quantile : 29.936152 µs ( 2.5%)
Execution time upper quantile : 31.330094 µs (97.5%)
Overhead used : 10.162171 ns
Evaluation count : 762 in 6 samples of 127 calls.
Execution time mean : 740.642963 µs
Execution time std-deviation : 176.879454 µs
Execution time lower quantile : 515.588780 µs ( 2.5%)
Execution time upper quantile : 949.109898 µs (97.5%)
Overhead used : 10.162171 ns
Found 2 outliers in 6 samples (33.3333 %)
low-severe 1 (16.6667 %)
low-mild 1 (16.6667 %)
Variance from outliers : 64.6374 % Variance is severely inflated by outliers
Evaluation count : 816 in 6 samples of 136 calls.
Execution time mean : 748.782942 µs
Execution time std-deviation : 7.157018 µs
Execution time lower quantile : 740.139618 µs ( 2.5%)
Execution time upper quantile : 756.102312 µs (97.5%)
Overhead used : 10.162171 ns
要点是:
- 异步开销支配实际处理时间。两个通道版本都比非通道版本慢得多,所以我们不再需要担心“为什么把整个东西放到一个通道上然后再把它取下来更快”。
chan-then-nested
和chan-xf
之间的差异比您的版本小得多。chan-xf
仍然稍微慢一点,但很容易在一个标准偏差内:这并不是一个了不起的结果。