我在2016年12月12日发布了一篇 使用Python进行并发编程-
PoolExecutor篇。其中有个例子中concurrent.futures要比multiprocessing.pool版本的快了1.7倍。看起来还是挺振奋人心的,不过这个数据是完全错误的。
在我的博客的文章下,NoAnyLove留言对我表示怀疑,我一翻代码,果然:
1 |
|
map了2次…
我一心想推concurrent.futures,当时太主观武断了,以为是Future这种架构带来的这种性能上的质变,没有去深究。在此向各位读者道歉,
也感谢NoAnyLove指出这个错误。这个周末我重新写了这篇文章。请大家以此为准,忽略之前那篇。原文如下:
—— 分割线 —–
之前我们使用多线程(threading)和多进程(multiprocessing)完成常规的需求,在启动的时候start、jon等步骤不能省,复杂的需要还要用1-2个队列。随着需求越来越复杂,如果没有良好的设计和抽象这部分的功能层次,代码量越多调试的难度就越大。有没有什么好的方法把这些步骤抽象一下呢,让我们不关注这些细节,轻装上阵呢?
答案是: 有的 。
从Python3.2开始一个叫做concurrent.futures被纳入了标准库,而在Python2它属于第三方的futures库,需要手动安装:
1 |
|
这个模块中有2个类:ThreadPoolExecutor和ProcessPoolExecutor,也就是对threading和multiprocessing的进行了高级别的抽象,
暴露出统一的接口,帮助开发者非常方便的实现异步调用:
1 |
|
感受下是不是很轻便呢?看一下花费的时间:
1 |
|
除了用map,另外一个常用的方法是submit。如果你要提交的任务的函数是一样的,就可以简化成map。但是假如提交的任务函数是不一样的,或者执行的过程之可能出现异常(使用map执行过程中发现问题会直接抛出错误)就要用到submit:
1 |
|
执一下:
1 |
|
可以看到,第一次捕捉到了异常,但是第二次执行的时候错误直接抛出来了。
原理
我们就拿ProcessPoolExecutor介绍下它的原理,引用官方代码注释中的流程图:
1 |
|
我们结合源码和上面的数据流分析一下:
- executor.map会创建多个_WorkItem对象,每个对象都传入了新创建的一个Future对象。
- 把每个_WorkItem对象然后放进一个叫做「Work Items」的dict中,键是不同的「Work Ids」。
- 创建一个管理「Work Ids」队列的线程「Local worker thread」,它能做2件事:
- 从「Work Ids」队列中获取Work Id, 通过「Work Items」找到对应的_WorkItem。如果这个Item被取消了,就从「Work Items」里面把它删掉,否则重新打包成一个_CallItem放入「Call Q」这个队列。executor的那些进程会从队列中取_CallItem执行,并把结果封装成_ResultItems放入「Result Q」队列中。
- 从「Result Q」队列中获取_ResultItems,然后从「Work Items」更新对应的Future对象并删掉入口。
看起来就是一个「生产者/消费者」模型,不过要注意,整个过程并不是多个进程与任务+结果-2个队列直接通信的,而是通过一个中间的「Local worker
thread」。
设想,当某一段程序提交了一个请求,期望得到一个答复。但服务程序对这个请求可能很慢,在传统的单线程环境下,调用函数是同步的,也就是说它必须等到服务程序返回结果后,才能进行其他处理。而在Future模式下,调用方式改为异步,而原先等待返回的时间段,在主调用函数中,则可用于处理其他事物。Future
Future是常见的一种并发设计模式,在多个其他语言中都可以见到这种解决方案。
一个Future对象代表了一些尚未就绪(完成)的结果,在「将来」的某个时间就绪了之后就可以获取到这个结果。比如上面的例子,我们期望并发的执行一些参数不同的fib函数,获取全部的结果。传统模式就是在等待queue.get返回结果,这个是同步模式,而在Future模式下,
在tornado中也有对应的实现。2013年的时候,我曾经写过一篇博客[使用tornado让你的请求异步非阻塞](http://www.dongwm.com/archives/shi-
yong-tornadorang-ni-de-qing-qiu-yi-bu-fei-zu-
sai/),最后也提到了用concurrent.futures实现异步非阻塞的完成耗时任务。用multiprocessing中的Pool还是concurrent.futures中的PoolExecutor?
上面说到的map,有些同学马上会说,这不是进程(线程)池的效果吗?看起来确实是的:
1 |
|
好像代码量更小。好吧,看一下花费的时间:
1 |
|
是的,使用multiprocessing.pool中的ThreadPool/Pool其实是更快一点的。
既然他们都是面向线程/进程提供相同的API,甚至在一些方法上的参数和使用方式上都是一样的,为什么要保存2份用起来差不多的方案呢(甚至可以说后期实现的concurrent.futures慢一点)?
我翻了下源码,试着分析下:
- concurrent.futures的架构明显要复杂一些,不过更利于写出高效、异步、非阻塞的并行代码,而ThreadPeool/Pool更像一个黑盒,你用就好了,细节不仅屏蔽定制性也差。
- concurrent.futures的接口更简单一些。ThreadPool/Pool的API中有processes, initializer,initargs,maxtasksperchild,context等参数,新人看起来容易不解,而concurrent.futures的参数就一个max_workers。
其实concurrent.futures底层还是用着threading和multiprocessing,相当于在其上又封装了一层,并且重新设计了架构,所以会慢一点。
然后我开始查找各种证据,找到了一个[SO的链接](https://stackoverflow.com/questions/24896193/whats-
the-difference-between-pythons-multiprocessing-and-concurrent-
futures),其中引用了Python核心贡献者Jesse
Noller说的一段话:Brian and I need to work on the consolidation we intend(ed) to occur
as people got comfortable with the APIs. My eventual goal is to remove
anything but the basic multiprocessing.Process/Queue stuff out of MP
and into concurrent.* and support threading backends for it.
和我的理解差不多吧。
不过我尝试让待处理的任务量比较大(上面的NUMBERS才包含13个),结果发现multiprocessing版本的速度差距成倍的扩大(下面会有实验代码):concurrent.futures不可思议的要慢很多!
这个时候我回忆了一下标准库的实现,没找到这2种架构性能差别能这么大的原因,正在疑惑中,以为自己使用的姿势不对。不过正好在上面的链接中作者还特别说明了如下一段:
multiprocessing.Pool.map outperforms ProcessPoolExecutor.map. Note that the
performance difference is very small per work item, so you’ll probably only
notice a large performance difference if you’re using map on a very large
iterable. The reason for the performance difference is that
multiprocessing.Pool will batch the iterable passed to map into chunks, and
then pass the chunks to the worker processes, which reduces the overhead of
IPC between the parent and children. ProcessPoolExecutor always passes one
item from the iterable at a time to the children, which can lead to much
slower performance with large iterables, due to the increased IPC overhead.
The good news is this issue will be fixed in Python 3.5, as as chunksize
keyword argument has been added to ProcessPoolExecutor.map, which can be used
to specify a larger chunk size if you know you’re dealing with large
iterables. See this bug(http://bugs.python.org/issue11271) for more info.
简单说明一下。multiprocessing.Pool.map要优于ProcessPoolExecutor.map,不过性能的差别是很小,如我上面说的,是由于架构和接口实现上的取舍。但是如果要处理的是一个很大的可迭代对象,就会有非常大的性能差别。这是因为multiprocessing.Pool是批量提交任务的,可以节省IPC(进程间通信)开销。而ProcessPoolExecutor每次都只提交一个任务。不过在Python3.5的时候已经通过给map方法添加chunksize参数解决了。
你可能比较迷惑,我们看一段代码就好了:
1 |
|
先运行一下:
1 |
|
其中第一段使用multiprocessing.pool,最快。
第二段使用没有加chunksize, 这个速度不忍直视。大家不要再这样犯错了。
第三段加上了chunksize,分块的原则和第一段标准库实现的一样,速度又回到同一个水平了。
迷惑这么久的原因其实是我一直在看Python 2的对应的代码,当我看了最新版的代码就懂了。
最后我的建议是:虽然会慢一点点,还是推荐使用接口更简单的concurrent.futures,不过
大家使用的时候注意要用Python3.及以后的版本啦!
PS:本文全部代码可以在微信公众号文章代码库项目中找到。
版权声明:本文由 董伟明 原创,未经作者授权禁止任何微信公众号和向掘金(juejin.im)转载,技术博客转载采用 保留署名-非商业性使用-禁止演绎 4.0-国际许可协议
python