讓計算機程式併發的執行是一個經常被討論的話題,今天我想討論一下Python下的各種併發方式。
併發方式
執行緒(Thread)
多執行緒幾乎是每一個程式猿在使用每一種語言時都會首先想到用於解決併發的工具(JS程式設計師請回避),使用多執行緒可以有效的利用CPU資源(Python例外)。然而多執行緒所帶來的程式的複雜度也不可避免,尤其是對競爭資源的同步問題。
然而在python中由於使用了全域性解釋鎖(GIL)的原因,程式碼並不能同時在多核上併發的執行,也就是說,Python的多執行緒不能併發,很多人會發現使用多執行緒來改進自己的Python程式碼後,程式的執行效率卻下降了,這是多麼蛋疼的一件事呀!如果想了解更多細節,推薦閱讀這篇文章。實際上使用多執行緒的程式設計模型是很困難的,程式設計師很容易犯錯,這並不是程式設計師的錯誤,因為並行思維是反人類的,我們大多數人的思維是序列(精神分裂不討論),而且馮諾依曼設計的計算機架構也是以順序執行為基礎的。所以如果你總是不能把你的多執行緒程式搞定,恭喜你,你是個思維正常的程式猿:)
Python提供兩組執行緒的介面,一組是thread模組,提供基礎的,低等級(Low Level)介面,使用Function作為執行緒的執行體。還有一組是threading模組,提供更容易使用的基於物件的介面(類似於Java),可以繼承Thread物件來實現執行緒,還提供了其它一些執行緒相關的物件,例如Timer,Lock
使用thread模組的例子
1 2 3 4 5 |
import thread def worker(): """thread worker function""" print 'Worker' thread.start_new_thread(worker) |
使用threading模組的例子
1 2 3 4 5 6 |
import threading def worker(): """thread worker function""" print 'Worker' t = threading.Thread(target=worker) t.start() |
或者Java Style
1 2 3 4 5 6 7 8 9 10 |
import threading class worker(threading.Thread): def __init__(self): pass def run(): """thread worker function""" print 'Worker' t = worker() t.start() |
程式 (Process)
由於前文提到的全域性解釋鎖的問題,Python下比較好的並行方式是使用多程式,這樣可以非常有效的使用CPU資源,並實現真正意義上的併發。當然,程式的開銷比執行緒要大,也就是說如果你要建立數量驚人的併發程式的話,需要考慮一下你的機器是不是有一顆強大的心。
Python的mutliprocess模組和threading具有類似的介面。
1 2 3 4 5 6 7 8 |
from multiprocessing import Process def worker(): """thread worker function""" print 'Worker' p = Process(target=worker) p.start() p.join() |
由於執行緒共享相同的地址空間和記憶體,所以執行緒之間的通訊是非常容易的,然而程式之間的通訊就要複雜一些了。常見的程式間通訊有,管道,訊息佇列,Socket介面(TCP/IP)等等。
Python的mutliprocess模組提供了封裝好的管道和佇列,可以方便的在程式間傳遞訊息。
Python程式間的同步使用鎖,這一點喝執行緒是一樣的。
另外,Python還提供了程式池Pool物件,可以方便的管理和控制執行緒。
遠端分散式主機 (Distributed Node)
隨著大資料時代的到臨,摩爾定理在單機上似乎已經失去了效果,資料的計算和處理需要分散式的計算機網路來執行,程式並行的執行在多個主機節點上,已經是現在的軟體架構所必需考慮的問題。
遠端主機間的程式間通訊有幾種常見的方式
- TCP/IP
TCP/IP是所有遠端通訊的基礎,然而API比較低階別,使用起來比較繁瑣,所以一般不會考慮
- 遠端方法呼叫 Remote Function Call
- 遠端物件 Remote Object
遠端物件是更高階別的封裝,程式可以想操作本地物件一樣去操作一個遠端物件在本地的代理。遠端物件最廣為使用的規範CORBA,CORBA最大的好處是可以在不同語言和平臺中進行通訊。當讓不用的語言和平臺還有一些各自的遠端物件實現,例如Java的RMI,MS的DCOM
Python的開源實現,有許多對遠端物件的支援
- 訊息佇列 Message Queue
比起RPC或者遠端物件,訊息是一種更為靈活的通訊手段,常見的支援Python介面的訊息機制有
在遠端主機上執行併發和本地的多程式並沒有非常大的差異,都需要解決程式間通訊的問題。當然對遠端程式的管理和協調比起本地要複雜。
Python下有許多開源的框架來支援分散式的併發,提供有效的管理手段包括:
- Celery
Celery是一個非常成熟的Python分散式框架,可以在分散式的系統中,非同步的執行任務,並提供有效的管理和排程功能。參考這裡
- SCOOP
SCOOP (Scalable COncurrent Operations in Python)提供簡單易用的分散式呼叫介面,使用Future介面來進行併發。
- Dispy
相比起Celery和SCOOP,Dispy提供更為輕量級的分散式並行服務
- PP
PP (Parallel Python)是另外一個輕量級的Python並行服務, 參考這裡
- Asyncoro
Asyncoro是另一個利用Generator實現分散式併發的Python框架,
當然還有許多其它的系統,我沒有一一列出
另外,許多的分散式系統多提供了對Python介面的支援,例如Spark
偽執行緒 (Pseudo-Thread)
還有一種併發手段並不常見,我們可以稱之為偽執行緒,就是看上去像是執行緒,使用的介面類似執行緒介面,但是實際使用非執行緒的方式,對應的執行緒開銷也不存的。
- greenlet
greenlet提供輕量級的coroutines來支援程式內的併發。
greenlet是Stackless的一個副產品,使用tasklet來支援一中被稱之為微執行緒(mirco-thread)的技術,這裡是一個使用greenlet的偽執行緒的例子
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
from greenlet import greenlet def test1(): print 12 gr2.switch() print 34 def test2(): print 56 gr1.switch() print 78 gr1 = greenlet(test1) gr2 = greenlet(test2) gr1.switch() |
1 2 3 |
12 56 34 |
eventlet,gevent和concurence都是基於greenlet提供併發的。
- eventlet http://eventlet.net/
eventlet是一個提供網路呼叫併發的Python庫,使用者可以以非阻塞的方式來呼叫阻塞的IO操作。
1 2 3 4 5 6 7 8 9 10 11 12 |
import eventlet from eventlet.green import urllib2 urls = ['http://www.google.com', 'http://www.example.com', 'http://www.python.org'] def fetch(url): return urllib2.urlopen(url).read() pool = eventlet.GreenPool() for body in pool.imap(fetch, urls): print("got body", len(body)) |
執行結果如下
1 2 3 |
('got body', 17629) ('got body', 1270) ('got body', 46949) |
gevent和eventlet類似,關於它們的差異大家可以參考這篇文章
1 2 3 4 5 6 7 |
import gevent from gevent import socket urls = ['www.google.com', 'www.example.com', 'www.python.org'] jobs = [gevent.spawn(socket.gethostbyname, url) for url in urls] gevent.joinall(jobs, timeout=2) print [job.value for job in jobs] |
1 |
['206.169.145.226', '93.184.216.34', '23.235.39.223'] |
- concurence https://github.com/concurrence/concurrence
concurence是另外一個利用greenlet提供網路併發的開源庫,我沒有用過,大家可以自己嘗試一下。
實戰運用
通常需要用到併發的場合有兩種,一種是計算密集型,也就是說你的程式需要大量的CPU資源;另一種是IO密集型,程式可能有大量的讀寫操作,包括讀寫檔案,收發網路請求等等。
計算密集型
對應計算密集型的應用,我們選用著名的蒙特卡洛演算法來計算PI值。基本原理如下
蒙特卡洛演算法利用統計學原理來模擬計算圓周率,在一個正方形中,一個隨機的點落在1/4圓的區域(紅色點)的概率與其面積成正比。也就該概率 p = Pi * R*R /4 : R* R , 其中R是正方形的邊長,圓的半徑。也就是說該概率是圓周率的1/4, 利用這個結論,只要我們模擬出點落在四分之一圓上的概率就可以知道圓周率了,為了得到這個概率,我們可以通過大量的實驗,也就是生成大量的點,看看這個點在哪個區域,然後統計出結果。
基本演算法如下:
1 2 3 4 5 |
from math import hypot from random import random def test(tries): return sum(hypot(random(), random()) < 1 for _ in range(tries)) |
通過大量的併發,我們可以快速的執行多次試驗,試驗的次數越多,結果越接近真實的圓周率。
這裡給出不同併發方法的程式程式碼
- 非併發
我們先在單執行緒,但程式執行,看看效能如何
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 |
from math import hypot from random import random import eventlet import time def test(tries): return sum(hypot(random(), random()) < 1 for _ in range(tries)) def calcPi(nbFutures, tries): ts = time.time() result = map(test, [tries] * nbFutures) ret = 4. * sum(result) / float(nbFutures * tries) span = time.time() - ts print "time spend ", span return ret print calcPi(3000,4000) |
- 多執行緒 thread
為了使用執行緒池,我們用multiprocessing的dummy包,它是對多執行緒的一個封裝。注意這裡程式碼雖然一個字的沒有提到執行緒,但它千真萬確是多執行緒。
通過測試我們開(jing)心(ya)的發現,果然不出所料,當執行緒池為1是,它的執行結果和沒有併發時一樣,當我們把執行緒池數字設定為5時,耗時幾乎是沒有併發的2倍,我的測試資料從5秒到9秒。所以對於計算密集型的任務,還是放棄多執行緒吧。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 |
from multiprocessing.dummy import Pool from math import hypot from random import random import time def test(tries): return sum(hypot(random(), random()) < 1 for _ in range(tries)) def calcPi(nbFutures, tries): ts = time.time() p = Pool(1) result = p.map(test, [tries] * nbFutures) ret = 4. * sum(result) / float(nbFutures * tries) span = time.time() - ts print "time spend ", span return ret if __name__ == '__main__': p = Pool() print("pi = {}".format(calcPi(3000, 4000))) |
- 多程式 multiprocess
理論上對於計算密集型的任務,使用多程式併發比較合適,在以下的例子中,程式池的規模設定為5,修改程式池的大小可以看到對結果的影響,當程式池設定為1時,和多執行緒的結果所需的時間類似,因為這時候並不存在併發;當設定為2時,響應時間有了明顯的改進,是之前沒有併發的一半;然而繼續擴大程式池對效能影響並不大,甚至有所下降,也許我的Apple Air的CPU只有兩個核?
當心,如果你設定一個非常大的程式池,你會遇到 Resource temporarily unavailable的錯誤,系統並不能支援建立太多的程式,畢竟資源是有限的。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 |
from multiprocessing import Pool from math import hypot from random import random import time def test(tries): return sum(hypot(random(), random()) < 1 for _ in range(tries)) def calcPi(nbFutures, tries): ts = time.time() p = Pool(5) result = p.map(test, [tries] * nbFutures) ret = 4. * sum(result) / float(nbFutures * tries) span = time.time() - ts print "time spend ", span return ret if __name__ == '__main__': print("pi = {}".format(calcPi(3000, 4000))) |
- gevent (偽執行緒)
不論是gevent還是eventlet,因為不存在實際的併發,響應時間和沒有併發區別不大,這個和測試結果一致。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 |
import gevent from math import hypot from random import random import time def test(tries): return sum(hypot(random(), random()) < 1 for _ in range(tries)) def calcPi(nbFutures, tries): ts = time.time() jobs = [gevent.spawn(test, t) for t in [tries] * nbFutures] gevent.joinall(jobs, timeout=2) ret = 4. * sum([job.value for job in jobs]) / float(nbFutures * tries) span = time.time() - ts print "time spend ", span return ret print calcPi(3000,4000) |
- eventlet (偽執行緒)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 |
from math import hypot from random import random import eventlet import time def test(tries): return sum(hypot(random(), random()) < 1 for _ in range(tries)) def calcPi(nbFutures, tries): ts = time.time() pool = eventlet.GreenPool() result = pool.imap(test, [tries] * nbFutures) ret = 4. * sum(result) / float(nbFutures * tries) span = time.time() - ts print "time spend ", span return ret print calcPi(3000,4000) |
- SCOOP
SCOOP中的Future介面符合PEP-3148的定義,也就是在Python3中提供的Future介面。
在預設的SCOOP配置環境下(單機,4個Worker),併發的效能有提高,但是不如兩個程式池配置的多程式。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 |
from math import hypot from random import random from scoop import futures import time def test(tries): return sum(hypot(random(), random()) < 1 for _ in range(tries)) def calcPi(nbFutures, tries): ts = time.time() expr = futures.map(test, [tries] * nbFutures) ret = 4. * sum(expr) / float(nbFutures * tries) span = time.time() - ts print "time spend ", span return ret if __name__ == "__main__": print("pi = {}".format(calcPi(3000, 4000))) |
- Celery
任務程式碼
1 2 3 4 5 6 7 8 9 10 11 |
from celery import Celery from math import hypot from random import random app = Celery('tasks', backend='amqp', broker='amqp://guest@localhost//') app.conf.CELERY_RESULT_BACKEND = 'db+sqlite:///results.sqlite' @app.task def test(tries): return sum(hypot(random(), random()) < 1 for _ in range(tries)) |
客戶端程式碼
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
from celery import group from tasks import test import time def calcPi(nbFutures, tries): ts = time.time() result = group(test.s(tries) for i in xrange(nbFutures))().get() ret = 4. * sum(result) / float(nbFutures * tries) span = time.time() - ts print "time spend ", span return ret print calcPi(3000, 4000) |
- asyncoro
Asyncoro的測試結果和非併發保持一致。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 |
import asyncoro from math import hypot from random import random import time def test(tries): yield sum(hypot(random(), random()) < 1 for _ in range(tries)) def calcPi(nbFutures, tries): ts = time.time() coros = [ asyncoro.Coro(test,t) for t in [tries] * nbFutures] ret = 4. * sum([job.value() for job in coros]) / float(nbFutures * tries) span = time.time() - ts print "time spend ", span return ret print calcPi(3000,4000) |
IO密集型
IO密集型的任務是另一種常見的用例,例如網路WEB伺服器就是一個例子,每秒鐘能處理多少個請求時WEB伺服器的重要指標。
我們就以網頁讀取作為最簡單的例子
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |
from math import hypot import time import urllib2 urls = ['http://www.google.com', 'http://www.example.com', 'http://www.python.org'] def test(url): return urllib2.urlopen(url).read() def testIO(nbFutures): ts = time.time() map(test, urls * nbFutures) span = time.time() - ts print "time spend ", span testIO(10) |
通過測試我們可以發現,對於IO密集型的任務,使用多執行緒,或者是多程式都可以有效的提高程式的效率,而使用偽執行緒效能提升非常顯著,eventlet比沒有併發的情況下,響應時間從9秒提高到0.03秒。同時eventlet/gevent提供了非阻塞的非同步呼叫模式,非常方便。這裡推薦使用執行緒或者偽執行緒,因為在響應時間類似的情況下,執行緒和偽執行緒消耗的資源更少。
總結
Python提供了不同的併發方式,對應於不同的場景,我們需要選擇不同的方式進行併發。選擇合適的方式,不但要對該方法的原理有所瞭解,還應該做一些測試和試驗,資料才是你做選擇的最好參考。