生成 python 多处理池时意外的内存占用差异
unexpected memory footprint differences when spawning python multiprocessing pool
尝试为 pystruct 模块中的并行化做出一些优化,并在试图解释我的想法的讨论中尝试在执行过程中尽早实例化池并尽可能长时间地保留它们,重用它们,我意识到我知道这样做效果最好,但我不完全知道为什么。
我知道在 *nix 系统上的说法是,池工作者子进程在写入时从父进程中的所有全局变量复制。总体上确实如此,但我认为应该补充一点,当其中一个全局变量是一个特别密集的数据结构(如 numpy 或 scipy 矩阵)时,似乎任何引用都会被复制到即使没有复制整个对象,worker 实际上也相当大,因此在执行后期生成新池可能会导致内存问题。我发现最好的做法是尽早生成一个池,这样任何数据结构都很小。
我知道这个有一段时间了,并在工作中的应用程序中围绕它进行了设计,但我得到的最好的解释是我在此处的线程中发布的内容:
https://github.com/pystruct/pystruct/pull/129#issuecomment-68898032
查看下面的 python 脚本,基本上,您会期望第一个 运行 中创建的池中的可用内存与第二个中创建的矩阵步骤基本相等,因为在两个最终池终止呼叫。但它们从来没有,当你首先创建池时,总是有更多的空闲内存(当然除非机器上发生了其他事情)。这种影响随着创建池时全局命名空间中数据结构的复杂性(和大小)而增加(我认为)。有人对此有很好的解释吗?
我用 bash 循环和下面的 R 脚本制作了这张小图来说明,显示了创建池和矩阵后的总体可用内存,具体取决于顺序:
pool_memory_test.py:
import numpy as np
import multiprocessing as mp
import logging
def memory():
"""
Get node total memory and memory usage
"""
with open('/proc/meminfo', 'r') as mem:
ret = {}
tmp = 0
for i in mem:
sline = i.split()
if str(sline[0]) == 'MemTotal:':
ret['total'] = int(sline[1])
elif str(sline[0]) in ('MemFree:', 'Buffers:', 'Cached:'):
tmp += int(sline[1])
ret['free'] = tmp
ret['used'] = int(ret['total']) - int(ret['free'])
return ret
if __name__ == '__main__':
import argparse
parser = argparse.ArgumentParser()
parser.add_argument('--pool_first', action='store_true')
parser.add_argument('--call_map', action='store_true')
args = parser.parse_args()
if args.pool_first:
logging.debug('start:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
p = mp.Pool()
logging.debug('pool created:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
biggish_matrix = np.ones((50000,5000))
logging.debug('matrix created:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
print memory()['free']
else:
logging.debug('start:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
biggish_matrix = np.ones((50000,5000))
logging.debug('matrix created:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
p = mp.Pool()
logging.debug('pool created:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
print memory()['free']
if args.call_map:
row_sums = p.map(sum, biggish_matrix)
logging.debug('sum mapped:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
p.terminate()
p.join()
logging.debug('pool terminated:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
pool_memory_test.sh
#! /bin/bash
rm pool_first_obs.txt > /dev/null 2>&1;
rm matrix_first_obs.txt > /dev/null 2>&1;
for ((n=0;n<100;n++)); do
python pool_memory_test.py --pool_first >> pool_first_obs.txt;
python pool_memory_test.py >> matrix_first_obs.txt;
done
pool_memory_test_plot.R:
library(ggplot2)
library(reshape2)
pool_first = as.numeric(readLines('pool_first_obs.txt'))
matrix_first = as.numeric(readLines('matrix_first_obs.txt'))
df = data.frame(i=seq(1,100), pool_first, matrix_first)
ggplot(data=melt(df, id.vars='i'), aes(x=i, y=value, color=variable)) +
geom_point() + geom_smooth() + xlab('iteration') +
ylab('free memory') + ggsave('multiprocessing_pool_memory.png')
编辑:修复脚本中由过度热心引起的小错误 find/replace 并重新运行修复
EDIT2:“-0”切片?你能做到吗? :)
EDIT3:更好的 python 脚本,bash 循环和可视化,暂时完成这个兔子洞 :)
您的问题涉及几个松散耦合的机制。这也是一个看起来很容易获得额外业力点的目标,但你会觉得有些不对劲,3 小时后这是一个完全不同的问题。因此,在 return 中,尽管我玩得很开心,但您可能会在下面找到一些有用的信息。
TL;DR:测量已用内存,不是空闲的。对于 pool/matrix 订单和大对象大小,这给出了(几乎)相同结果的一致结果。
def memory():
import resource
# RUSAGE_BOTH is not always available
self = resource.getrusage(resource.RUSAGE_SELF).ru_maxrss
children = resource.getrusage(resource.RUSAGE_CHILDREN).ru_maxrss
return self + children
在回答你没有问过但密切相关的问题之前,这里有一些背景知识。
背景
最广泛的实现,CPython(2 和 3 版本)使用引用计数内存管理 [1]。每当您使用 Python 对象作为值时,它的引用计数器都会增加 1,并在引用丢失时减少。计数器是在 C 结构中定义的整数,用于保存每个 Python 对象 [2] 的数据。要点:引用计数器一直在变化,它与其他对象数据一起存储。
大多数 "Unix inspired OS"(BSD 系列、Linux、OSX 等)支持写时复制 [3] 内存访问语义。在fork()
之后,两个进程有不同的内存页表指向相同的物理页。但是 OS 已经将页面标记为写保护,所以当你进行任何内存写入时, CPU 引发内存访问异常,由 OS 处理以将原始页面复制到新位置。它的运行和嘎嘎声就像进程具有独立的内存一样,但是嘿,让我们节省一些时间(在复制时)和 RAM,而部分内存是等效的。要点:fork
(或 mp.Pool
)创建新进程,但它们(几乎)还没有使用任何额外内存。
CPython 将 "small" 对象存储在大型池(竞技场)[4] 中。在创建和销毁大量小对象的常见场景中,例如,函数内的临时变量,您不希望过于频繁地调用 OS 内存管理。其他编程语言(至少是大多数编译语言)为此目的使用堆栈。
相关问题
mp.Pool()
之后内存使用情况不同,池没有完成任何工作:multiprocessing.Pool.__init__
创建了 N 个(检测到的 CPU 个)工作进程。写时复制语义从此时开始。
- "the claim, on *nix systems, is that a pool worker subprocess copies on write from all the globals in the parent process":多处理复制它的全局变量 "context",而不是你模块的全局变量,它无条件地在任何 OS 上复制。 [5]
numpy.ones
和 Python list
的不同内存使用:matrix = [[1,1,...],[1,2,...],...]
是 Python 列表 Python 列表 Python 整数。大量 Python 个对象 = 大量 PyObject_HEAD = 大量引用计数器。在分叉环境中访问所有这些会触及所有引用计数器,因此会复制它们的内存页面。 matrix = numpy.ones((50000, 5000))
是 numpy.array
类型的 Python 对象。就是这样,一个 Python 对象,一个引用计数器。其余的是存储在内存中的纯低级数字,彼此相邻,不涉及引用计数器。为了简单起见,您可以使用 data = '.'*size
[5] - 这也会在内存中创建一个对象。
来源
- https://docs.python.org/2/c-api/refcounting.html
- https://docs.python.org/2/c-api/structures.html#c.PyObject_HEAD
- http://minnie.tuhs.org/CompArch/Lectures/week09.html#tth_sEc2.8
- http://www.evanjones.ca/memoryallocator/
- https://github.com/python/cpython/search?utf8=%E2%9C%93&q=globals+path%3ALib%2Fmultiprocessing%2F&type=Code
- 综上所述https://gist.github.com/temoto/af663106a3da414359fa
尝试为 pystruct 模块中的并行化做出一些优化,并在试图解释我的想法的讨论中尝试在执行过程中尽早实例化池并尽可能长时间地保留它们,重用它们,我意识到我知道这样做效果最好,但我不完全知道为什么。
我知道在 *nix 系统上的说法是,池工作者子进程在写入时从父进程中的所有全局变量复制。总体上确实如此,但我认为应该补充一点,当其中一个全局变量是一个特别密集的数据结构(如 numpy 或 scipy 矩阵)时,似乎任何引用都会被复制到即使没有复制整个对象,worker 实际上也相当大,因此在执行后期生成新池可能会导致内存问题。我发现最好的做法是尽早生成一个池,这样任何数据结构都很小。
我知道这个有一段时间了,并在工作中的应用程序中围绕它进行了设计,但我得到的最好的解释是我在此处的线程中发布的内容:
https://github.com/pystruct/pystruct/pull/129#issuecomment-68898032
查看下面的 python 脚本,基本上,您会期望第一个 运行 中创建的池中的可用内存与第二个中创建的矩阵步骤基本相等,因为在两个最终池终止呼叫。但它们从来没有,当你首先创建池时,总是有更多的空闲内存(当然除非机器上发生了其他事情)。这种影响随着创建池时全局命名空间中数据结构的复杂性(和大小)而增加(我认为)。有人对此有很好的解释吗?
我用 bash 循环和下面的 R 脚本制作了这张小图来说明,显示了创建池和矩阵后的总体可用内存,具体取决于顺序:
pool_memory_test.py:
import numpy as np
import multiprocessing as mp
import logging
def memory():
"""
Get node total memory and memory usage
"""
with open('/proc/meminfo', 'r') as mem:
ret = {}
tmp = 0
for i in mem:
sline = i.split()
if str(sline[0]) == 'MemTotal:':
ret['total'] = int(sline[1])
elif str(sline[0]) in ('MemFree:', 'Buffers:', 'Cached:'):
tmp += int(sline[1])
ret['free'] = tmp
ret['used'] = int(ret['total']) - int(ret['free'])
return ret
if __name__ == '__main__':
import argparse
parser = argparse.ArgumentParser()
parser.add_argument('--pool_first', action='store_true')
parser.add_argument('--call_map', action='store_true')
args = parser.parse_args()
if args.pool_first:
logging.debug('start:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
p = mp.Pool()
logging.debug('pool created:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
biggish_matrix = np.ones((50000,5000))
logging.debug('matrix created:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
print memory()['free']
else:
logging.debug('start:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
biggish_matrix = np.ones((50000,5000))
logging.debug('matrix created:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
p = mp.Pool()
logging.debug('pool created:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
print memory()['free']
if args.call_map:
row_sums = p.map(sum, biggish_matrix)
logging.debug('sum mapped:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
p.terminate()
p.join()
logging.debug('pool terminated:\n\t {}\n'.format(' '.join(['{}: {}'.format(k,v)
for k,v in memory().items()])))
pool_memory_test.sh
#! /bin/bash
rm pool_first_obs.txt > /dev/null 2>&1;
rm matrix_first_obs.txt > /dev/null 2>&1;
for ((n=0;n<100;n++)); do
python pool_memory_test.py --pool_first >> pool_first_obs.txt;
python pool_memory_test.py >> matrix_first_obs.txt;
done
pool_memory_test_plot.R:
library(ggplot2)
library(reshape2)
pool_first = as.numeric(readLines('pool_first_obs.txt'))
matrix_first = as.numeric(readLines('matrix_first_obs.txt'))
df = data.frame(i=seq(1,100), pool_first, matrix_first)
ggplot(data=melt(df, id.vars='i'), aes(x=i, y=value, color=variable)) +
geom_point() + geom_smooth() + xlab('iteration') +
ylab('free memory') + ggsave('multiprocessing_pool_memory.png')
编辑:修复脚本中由过度热心引起的小错误 find/replace 并重新运行修复
EDIT2:“-0”切片?你能做到吗? :)
EDIT3:更好的 python 脚本,bash 循环和可视化,暂时完成这个兔子洞 :)
您的问题涉及几个松散耦合的机制。这也是一个看起来很容易获得额外业力点的目标,但你会觉得有些不对劲,3 小时后这是一个完全不同的问题。因此,在 return 中,尽管我玩得很开心,但您可能会在下面找到一些有用的信息。
TL;DR:测量已用内存,不是空闲的。对于 pool/matrix 订单和大对象大小,这给出了(几乎)相同结果的一致结果。
def memory():
import resource
# RUSAGE_BOTH is not always available
self = resource.getrusage(resource.RUSAGE_SELF).ru_maxrss
children = resource.getrusage(resource.RUSAGE_CHILDREN).ru_maxrss
return self + children
在回答你没有问过但密切相关的问题之前,这里有一些背景知识。
背景
最广泛的实现,CPython(2 和 3 版本)使用引用计数内存管理 [1]。每当您使用 Python 对象作为值时,它的引用计数器都会增加 1,并在引用丢失时减少。计数器是在 C 结构中定义的整数,用于保存每个 Python 对象 [2] 的数据。要点:引用计数器一直在变化,它与其他对象数据一起存储。
大多数 "Unix inspired OS"(BSD 系列、Linux、OSX 等)支持写时复制 [3] 内存访问语义。在fork()
之后,两个进程有不同的内存页表指向相同的物理页。但是 OS 已经将页面标记为写保护,所以当你进行任何内存写入时, CPU 引发内存访问异常,由 OS 处理以将原始页面复制到新位置。它的运行和嘎嘎声就像进程具有独立的内存一样,但是嘿,让我们节省一些时间(在复制时)和 RAM,而部分内存是等效的。要点:fork
(或 mp.Pool
)创建新进程,但它们(几乎)还没有使用任何额外内存。
CPython 将 "small" 对象存储在大型池(竞技场)[4] 中。在创建和销毁大量小对象的常见场景中,例如,函数内的临时变量,您不希望过于频繁地调用 OS 内存管理。其他编程语言(至少是大多数编译语言)为此目的使用堆栈。
相关问题
mp.Pool()
之后内存使用情况不同,池没有完成任何工作:multiprocessing.Pool.__init__
创建了 N 个(检测到的 CPU 个)工作进程。写时复制语义从此时开始。- "the claim, on *nix systems, is that a pool worker subprocess copies on write from all the globals in the parent process":多处理复制它的全局变量 "context",而不是你模块的全局变量,它无条件地在任何 OS 上复制。 [5]
numpy.ones
和 Pythonlist
的不同内存使用:matrix = [[1,1,...],[1,2,...],...]
是 Python 列表 Python 列表 Python 整数。大量 Python 个对象 = 大量 PyObject_HEAD = 大量引用计数器。在分叉环境中访问所有这些会触及所有引用计数器,因此会复制它们的内存页面。matrix = numpy.ones((50000, 5000))
是numpy.array
类型的 Python 对象。就是这样,一个 Python 对象,一个引用计数器。其余的是存储在内存中的纯低级数字,彼此相邻,不涉及引用计数器。为了简单起见,您可以使用data = '.'*size
[5] - 这也会在内存中创建一个对象。
来源
- https://docs.python.org/2/c-api/refcounting.html
- https://docs.python.org/2/c-api/structures.html#c.PyObject_HEAD
- http://minnie.tuhs.org/CompArch/Lectures/week09.html#tth_sEc2.8
- http://www.evanjones.ca/memoryallocator/
- https://github.com/python/cpython/search?utf8=%E2%9C%93&q=globals+path%3ALib%2Fmultiprocessing%2F&type=Code
- 综上所述https://gist.github.com/temoto/af663106a3da414359fa