20.2、python程式間通訊——佇列和管道
程式間通訊——佇列和管道(multiprocess.Queue、multiprocess.Pipe)
程式間通訊
IPC(Inter-Process Communication)
佇列
概念介紹
建立共享的程式佇列,Queue是多程式安全的佇列,可以使用Queue實現多程式之間的資料傳遞。
Queue([maxsize])
建立共享的程式佇列。
引數 :maxsize是佇列中允許的最大項數。如果省略此引數,則無大小限制。
底層佇列使用管道和鎖定實現。
方法介紹
Queue([maxsize])
建立共享的程式佇列。maxsize是佇列中允許的最大項數。如果省略此引數,則無大小限制。底層佇列使用管道和鎖定實現。另外,還需要執行支援執行緒以便佇列中的資料傳輸到底層管道中。
Queue的例項q具有以下方法:
q.get( [ block [ ,timeout ] ] )
返回q中的一個專案。如果q為空,此方法將阻塞,直到佇列中有專案可用為止。block用於控制阻塞行為,預設為True. 如果設定為False,將引發Queue.Empty異常(定義在Queue模組中)。timeout是可選超時時間,用在阻塞模式中。如果在制定的時間間隔內沒有專案變為可用,將引發Queue.Empty異常。
q.get_nowait( )
同q.get(False)方法。
q.put(item [, block [,timeout ] ] )
將item放入佇列。如果佇列已滿,此方法將阻塞至有空間可用為止。block控制阻塞行為,預設為True。如果設定為False,將引發Queue.Empty異常(定義在Queue庫模組中)。timeout指定在阻塞模式中等待可用空間的時間長短。超時後將引發Queue.Full異常。
q.qsize()
返回佇列中目前專案的正確數量。此函式的結果並不可靠,因為在返回結果和在稍後程式中使用結果之間,佇列中可能新增或刪除了專案。在某些系統上,此方法可能引發NotImplementedError異常。
q.empty()
如果呼叫此方法時 q為空,返回True。如果其他程式或執行緒正在往佇列中新增專案,結果是不可靠的。也就是說,在返回和使用結果之間,佇列中可能已經加入新的專案。
q.full()
如果q已滿,返回為True. 由於執行緒的存在,結果也可能是不可靠的(參考q.empty()方法)。。
其他方法(瞭解)
q.close()
關閉佇列,防止佇列中加入更多資料。呼叫此方法時,後臺執行緒將繼續寫入那些已入佇列但尚未寫入的資料,但將在此方法完成時馬上關閉。如果q被垃圾收集,將自動呼叫此方法。關閉佇列不會在佇列使用者中生成任何型別的資料結束訊號或異常。例如,如果某個使用者正被阻塞在get()操作上,關閉生產者中的佇列不會導致get()方法返回錯誤。
q.cancel_join_thread()
不會再程式退出時自動連線後臺執行緒。這可以防止join_thread()方法阻塞。
q.join_thread()
連線佇列的後臺執行緒。此方法用於在呼叫q.close()方法後,等待所有佇列項被消耗。預設情況下,此方法由不是q的原始建立者的所有程式呼叫。呼叫q.cancel_join_thread()方法可以禁止這種行為。
程式碼例項
單看佇列用法
“`
multiprocessing模組支援程式間通訊的兩種主要形式:管道和佇列
都是基於訊息傳遞實現的,但是佇列介面
“`from multiprocessing import Queue
q=Queue(3)#put ,get ,put_nowait,get_nowait,full,emptyq.put(3)
q.put(3)
q.put(3)# q.put(3) # 如果佇列已經滿了,程式就會停在這裡,等待資料被別人取走,再將資料放入佇列。 # 如果佇列中的資料一直不被取走,程式就會永遠停在這裡。try:
q.put_nowait(3) # 可以使用put_nowait,如果佇列滿了不會阻塞,但是會因為佇列滿了而報錯。except: # 因此我們可以用一個try語句來處理這個錯誤。這樣程式不會一直阻塞下去,但是會丟掉這個訊息。 print(`佇列已經滿了`)# 因此,我們再放入資料之前,可以先看一下佇列的狀態,如果已經滿了,就不繼續put了。print(q.full()) #滿了print(q.get())print(q.get())print(q.get())# print(q.get()) # 同put方法一樣,如果佇列已經空了,那麼繼續取就會出現阻塞。try:
q.get_nowait(3) # 可以使用get_nowait,如果佇列滿了不會阻塞,但是會因為沒取到值而報錯。except: # 因此我們可以用一個try語句來處理這個錯誤。這樣程式不會一直阻塞下去。 print(`佇列已經空了`)print(q.empty()) #空了
上面這個例子還沒有加入程式通訊,只是先來看看佇列為我們提供的方法,以及這些方法的使用和現象。
import timefrom multiprocessing import Process, Queuedef f(q):
q.put([time.asctime(), `from Eva`, `hello`]) #呼叫主函式中p程式傳遞過來的程式引數 put函式為向佇列中新增一條資料。if __name__ == `__main__`:
q = Queue() #建立一個Queue物件 p = Process(target=f, args=(q,)) #建立一個程式 p.start()
print(q.get())
p.join()
批量生產資料放入佇列再批量獲取結果 x
上面是一個queue的簡單應用,使用佇列q物件呼叫get函式來取得佇列中最先進入的資料。 接下來看一個稍微複雜一些的例子:
import osimport timeimport multiprocessing# 向queue中輸入資料的函式def inputQ(queue):
info = str(os.getpid()) + `(put):` + str(time.asctime())
queue.put(info)# 向queue中輸出資料的函式def outputQ(queue):
info = queue.get()
print (`%s%s 33[32m%s 33[0m`%(str(os.getpid()), `(get):`,info))# Mainif __name__ == `__main__`:
multiprocessing.freeze_support()
record1 = [] # store input processes record2 = [] # store output processes queue = multiprocessing.Queue(3)
# 輸入程式 for i in range(10):
process = multiprocessing.Process(target=inputQ,args=(queue,))
process.start()
record1.append(process)
# 輸出程式 for i in range(10):
process = multiprocessing.Process(target=outputQ,args=(queue,))
process.start()
record2.append(process)
for p in record1:
p.join()
for p in record2:
p.join()
生產者消費者模型
在併發程式設計中使用生產者和消費者模式能夠解決絕大多數併發問題。該模式通過平衡生產執行緒和消費執行緒的工作能力來提高程式的整體處理資料的速度。
為什麼要使用生產者和消費者模式
線上程世界裡,生產者就是生產資料的執行緒,消費者就是消費資料的執行緒。在多執行緒開發當中,如果生產者處理速度很快,而消費者處理速度很慢,那麼生產者就必須等待消費者處理完,才能繼續生產資料。同樣的道理,如果消費者的處理能力大於生產者,那麼消費者就必須等待生產者。為了解決這個問題於是引入了生產者和消費者模式。
什麼是生產者消費者模式
生產者消費者模式是通過一個容器來解決生產者和消費者的強耦合問題。生產者和消費者彼此之間不直接通訊,而通過阻塞佇列來進行通訊,所以生產者生產完資料之後不用等待消費者處理,直接扔給阻塞佇列,消費者不找生產者要資料,而是直接從阻塞佇列裡取,阻塞佇列就相當於一個緩衝區,平衡了生產者和消費者的處理能力。
基於佇列實現生產者消費者模型
from multiprocessing import Process,Queueimport time,random,osdef consumer(q):
while True:
res=q.get()
time.sleep(random.randint(1,3))
print(` 33[45m%s 吃 %s 33[0m` %(os.getpid(),res))def producer(q):
for i in range(10):
time.sleep(random.randint(1,3))
res=`包子%s` %i
q.put(res)
print(` 33[44m%s 生產了 %s 33[0m` %(os.getpid(),res))if __name__ == `__main__`:
q=Queue()
#生產者們:即廚師們 p1=Process(target=producer,args=(q,))
#消費者們:即吃貨們 c1=Process(target=consumer,args=(q,))
#開始 p1.start()
c1.start()
print(`主`)
此時的問題是主程式永遠不會結束,原因是:生產者p在生產完後就結束了,但是消費者c在取空了q之後,則一直處於死迴圈中且卡在q.get()這一步。
解決方式無非是讓生產者在生產完畢後,往佇列中再發一個結束訊號,這樣消費者在接收到結束訊號後就可以break出死迴圈。
改良版——生產者消費者模型
from multiprocessing import Process,Queueimport time,random,osdef consumer(q):
while True:
res=q.get()
if res is None:break #收到結束訊號則結束 time.sleep(random.randint(1,3))
print(` 33[45m%s 吃 %s 33[0m` %(os.getpid(),res))def producer(q):
for i in range(10):
time.sleep(random.randint(1,3))
res=`包子%s` %i
q.put(res)
print(` 33[44m%s 生產了 %s 33[0m` %(os.getpid(),res))
q.put(None) #傳送結束訊號if __name__ == `__main__`:
q=Queue()
#生產者們:即廚師們 p1=Process(target=producer,args=(q,))
#消費者們:即吃貨們 c1=Process(target=consumer,args=(q,))
#開始 p1.start()
c1.start()
print(`主`)
注意:結束訊號None,不一定要由生產者發,主程式裡同樣可以發,但主程式需要等生產者結束後才應該傳送該訊號
主程式在生產者生產完畢後傳送結束訊號None
from multiprocessing import Process,Queueimport time,random,osdef consumer(q):
while True:
res=q.get()
if res is None:break #收到結束訊號則結束 time.sleep(random.randint(1,3))
print(` 33[45m%s 吃 %s 33[0m` %(os.getpid(),res))def producer(q):
for i in range(2):
time.sleep(random.randint(1,3))
res=`包子%s` %i
q.put(res)
print(` 33[44m%s 生產了 %s 33[0m` %(os.getpid(),res))if __name__ == `__main__`:
q=Queue()
#生產者們:即廚師們 p1=Process(target=producer,args=(q,))
#消費者們:即吃貨們 c1=Process(target=consumer,args=(q,))
#開始 p1.start()
c1.start()
p1.join()
q.put(None) #傳送結束訊號 print(`主`)
但上述解決方式,在有多個生產者和多個消費者時,我們則需要用一個很low的方式去解決
多個消費者的例子:有幾個消費者就需要傳送幾次結束訊號
from multiprocessing import Process,Queueimport time,random,osdef consumer(q):
while True:
res=q.get()
if res is None:break #收到結束訊號則結束 time.sleep(random.randint(1,3))
print(` 33[45m%s 吃 %s 33[0m` %(os.getpid(),res))def producer(name,q):
for i in range(2):
time.sleep(random.randint(1,3))
res=`%s%s` %(name,i)
q.put(res)
print(` 33[44m%s 生產了 %s 33[0m` %(os.getpid(),res))if __name__ == `__main__`:
q=Queue()
#生產者們:即廚師們 p1=Process(target=producer,args=(`包子`,q))
p2=Process(target=producer,args=(`骨頭`,q))
p3=Process(target=producer,args=(`泔水`,q))
#消費者們:即吃貨們 c1=Process(target=consumer,args=(q,))
c2=Process(target=consumer,args=(q,))
#開始 p1.start()
p2.start()
p3.start()
c1.start()
p1.join() #必須保證生產者全部生產完畢,才應該傳送結束訊號 p2.join()
p3.join()
q.put(None) #有幾個消費者就應該傳送幾次結束訊號None q.put(None) #傳送結束訊號 print(`主`)
JoinableQueue([maxsize])
建立可連線的共享程式佇列。這就像是一個Queue物件,但佇列允許專案的使用者通知生產者專案已經被成功處理。通知程式是使用共享的訊號和條件變數來實現的。
JoinableQueue的例項p除了與Queue物件相同的方法之外,還具有以下方法:
q.task_done()
使用者使用此方法發出訊號,表示q.get()返回的專案已經被處理。如果呼叫此方法的次數大於從佇列中刪除的專案數量,將引發ValueError異常。
q.join()
生產者將使用此方法進行阻塞,直到佇列中所有專案均被處理。阻塞將持續到為佇列中的每個專案均呼叫q.task_done()方法為止。
下面的例子說明如何建立永遠執行的程式,使用和處理佇列上的專案。生產者將專案放入佇列,並等待它們被處理。
方法介紹
from multiprocessing import Process,JoinableQueueimport time,random,osdef consumer(q):
while True:
res=q.get()
time.sleep(random.randint(1,3))
print(` 33[45m%s 吃 %s 33[0m` %(os.getpid(),res))
q.task_done() #向q.join()傳送一次訊號,證明一個資料已經被取走了def producer(name,q):
for i in range(10):
time.sleep(random.randint(1,3))
res=`%s%s` %(name,i)
q.put(res)
print(` 33[44m%s 生產了 %s 33[0m` %(os.getpid(),res))
q.join() #生產完畢,使用此方法進行阻塞,直到佇列中所有專案均被處理。if __name__ == `__main__`:
q=JoinableQueue()
#生產者們:即廚師們 p1=Process(target=producer,args=(`包子`,q))
p2=Process(target=producer,args=(`骨頭`,q))
p3=Process(target=producer,args=(`泔水`,q))
#消費者們:即吃貨們 c1=Process(target=consumer,args=(q,))
c2=Process(target=consumer,args=(q,))
c1.daemon=True
c2.daemon=True
#開始 p_l=[p1,p2,p3,c1,c2]
for p in p_l:
p.start()
p1.join()
p2.join()
p3.join()
print(`主`)
#主程式等—>p1,p2,p3等—->c1,c2 #p1,p2,p3結束了,證明c1,c2肯定全都收完了p1,p2,p3發到佇列的資料 #因而c1,c2也沒有存在的價值了,不需要繼續阻塞在程式中影響主程式了。應該隨著主程式的結束而結束,所以設定成守護程式就可以了。
管道(瞭解)
介紹
#建立管道的類:Pipe([duplex]):在程式之間建立一條管道,並返回元組(conn1,conn2),其中conn1,conn2表示管道兩端的連線物件,強調一點:必須在產生Process物件之前產生管道#引數介紹:dumplex:預設管道是全雙工的,如果將duplex射成False,conn1只能用於接收,conn2只能用於傳送。#主要方法: conn1.recv():接收conn2.send(obj)傳送的物件。如果沒有訊息可接收,recv方法會一直阻塞。如果連線的另外一端已經關閉,那麼recv方法會丟擲EOFError。
conn1.send(obj):通過連線傳送物件。obj是與序列化相容的任意物件
#其他方法:conn1.close():關閉連線。如果conn1被垃圾回收,將自動呼叫此方法
conn1.fileno():返回連線使用的整數檔案描述符
conn1.poll([timeout]):如果連線上的資料可用,返回True。timeout指定等待的最長時限。如果省略此引數,方法將立即返回結果。如果將timeout射成None,操作將無限期地等待資料到達。
conn1.recv_bytes([maxlength]):接收c.send_bytes()方法傳送的一條完整的位元組訊息。maxlength指定要接收的最大位元組數。如果進入的訊息,超過了這個最大值,將引發IOError異常,並且在連線上無法進行進一步讀取。如果連線的另外一端已經關閉,再也不存在任何資料,將引發EOFError異常。
conn.send_bytes(buffer [, offset [, size]]):通過連線傳送位元組資料緩衝區,buffer是支援緩衝區介面的任意物件,offset是緩衝區中的位元組偏移量,而size是要傳送位元組數。結果資料以單條訊息的形式發出,然後呼叫c.recv_bytes()函式進行接收
conn1.recv_bytes_into(buffer [, offset]):接收一條完整的位元組訊息,並把它儲存在buffer物件中,該物件支援可寫入的緩衝區介面(即bytearray物件或類似的物件)。offset指定緩衝區中放置訊息處的位元組位移。返回值是收到的位元組數。如果訊息長度大於可用的緩衝區空間,將引發BufferTooShort異常。
pipe初使用
from multiprocessing import Process, Pipedef f(conn):
conn.send(“Hello The_Third_Wave”)
conn.close()if __name__ == `__main__`:
parent_conn, child_conn = Pipe()
p = Process(target=f, args=(child_conn,))
p.start()
print(parent_conn.recv())
p.join()
應該特別注意管道端點的正確管理問題。如果是生產者或消費者中都沒有使用管道的某個端點,就應將它關閉。這也說明了為何在生產者中關閉了管道的輸出端,在消費者中關閉管道的輸入端。如果忘記執行這些步驟,程式可能在消費者中的recv()操作上掛起。管道是由作業系統進行引用計數的,必須在所有程式中關閉管道後才能生成EOFError異常。因此,在生產者中關閉管道不會有任何效果,除非消費者也關閉了相同的管道端點。
pipe初使用
from multiprocessing import Process, Pipedef f(parent_conn,child_conn):
#parent_conn.close() #不寫close將不會引發EOFError while True:
try:
print(child_conn.recv())
except EOFError:
child_conn.close()if __name__ == `__main__`:
parent_conn, child_conn = Pipe()
p = Process(target=f, args=(parent_conn,child_conn,))
p.start()
child_conn.close()
parent_conn.send(`hello`)
parent_conn.close()
p.join()
pipe實現生產者消費者模型
from multiprocessing import Process,Pipedef consumer(p,name):
produce, consume=p
produce.close()
while True:
try:
baozi=consume.recv()
print(`%s 收到包子:%s` %(name,baozi))
except EOFError:
breakdef producer(seq,p):
produce, consume=p
consume.close()
for i in seq:
produce.send(i)if __name__ == `__main__`:
produce,consume=Pipe()
c1=Process(target=consumer,args=((produce,consume),`c1`))
c1.start()
seq=(i for i in range(10))
producer(seq,(produce,consume))
produce.close()
consume.close()
c1.join()
print(`主程式`)
多個消費之之間的競爭問題帶來的資料不安全問題
from multiprocessing import Process,Pipe,Lockdef consumer(p,name,lock):
produce, consume=p
produce.close()
while True:
lock.acquire()
baozi=consume.recv()
lock.release()
if baozi:
print(`%s 收到包子:%s` %(name,baozi))
else:
consume.close()
breakdef producer(p,n):
produce, consume=p
consume.close()
for i in range(n):
produce.send(i)
produce.send(None)
produce.send(None)
produce.close()if __name__ == `__main__`:
produce,consume=Pipe()
lock = Lock()
c1=Process(target=consumer,args=((produce,consume),`c1`,lock))
c2=Process(target=consumer,args=((produce,consume),`c2`,lock))
p1=Process(target=producer,args=((produce,consume),10))
c1.start()
c2.start()
p1.start()
produce.close()
consume.close()
c1.join()
c2.join()
p1.join()
print(`主程式`)
程式之間的資料共享
展望未來,基於訊息傳遞的併發程式設計是大勢所趨
即便是使用執行緒,推薦做法也是將程式設計為大量獨立的執行緒集合,通過訊息佇列交換資料。
這樣極大地減少了對使用鎖定和其他同步手段的需求,還可以擴充套件到分散式系統中。
但程式間應該儘量避免通訊,即便需要通訊,也應該選擇程式安全的工具來避免加鎖帶來的問題。
以後我們會嘗試使用資料庫來解決現在程式之間的資料共享問題。
Manager模組介紹
程式間資料是獨立的,可以藉助於佇列或管道實現通訊,二者都是基於訊息傳遞的
雖然程式間資料獨立,但可以通過Manager實現資料共享,事實上Manager的功能遠不止於此
A manager object returned by Manager() controls a server process which holds Python objects and allows other processes to manipulate them using proxies.
A manager returned by Manager() will support types list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Value and Array.
Manager例子
from multiprocessing import Manager,Process,Lockdef work(d,lock):
with lock: #不加鎖而操作共享的資料,肯定會出現資料錯亂 d[`count`]-=1if __name__ == `__main__`:
lock=Lock()
with Manager() as m:
dic=m.dict({`count`:100})
p_l=[]
for i in range(100):
p=Process(target=work,args=(dic,lock))
p_l.append(p)
p.start()
for p in p_l:
p.join()
print(dic)
程式池和multiprocess.Pool模組
程式池
為什麼要有程式池?程式池的概念。
在程式實際處理問題過程中,忙時會有成千上萬的任務需要被執行,閒時可能只有零星任務。那麼在成千上萬個任務需要被執行的時候,我們就需要去建立成千上萬個程式麼?首先,建立程式需要消耗時間,銷燬程式也需要消耗時間。第二即便開啟了成千上萬的程式,作業系統也不能讓他們同時執行,這樣反而會影響程式的效率。因此我們不能無限制的根據任務開啟或者結束程式。那麼我們要怎麼做呢?
在這裡,要給大家介紹一個程式池的概念,定義一個池子,在裡面放上固定數量的程式,有需求來了,就拿一個池中的程式來處理任務,等到處理完畢,程式並不關閉,而是將程式再放回程式池中繼續等待任務。如果有很多工需要執行,池中的程式數量不夠,任務就要等待之前的程式執行任務完畢歸來,拿到空閒程式才能繼續執行。也就是說,池中程式的數量是固定的,那麼同一時間最多有固定數量的程式在執行。這樣不會增加作業系統的排程難度,還節省了開閉程式的時間,也一定程度上能夠實現併發效果。
multiprocess.Pool模組
概念介紹
Pool([numprocess [,initializer [, initargs]]]):建立程式池
引數介紹
1 numprocess:要建立的程式數,如果省略,將預設使用cpu_count()的值2 initializer:是每個工作程式啟動時要執行的可呼叫物件,預設為None3 initargs:是要傳給initializer的引數組
主要方法
1 p.apply(func [, args [, kwargs]]):在一個池工作程式中執行func(*args,**kwargs),然後返回結果。2 “`需要強調的是:此操作並不會在所有池工作程式中並執行func函式。如果要通過不同引數併發地執行func函式,必須從不同執行緒呼叫p.apply()函式或者使用p.apply_async()“`3 4 p.apply_async(func [, args [, kwargs]]):在一個池工作程式中執行func(*args,**kwargs),然後返回結果。5 “`此方法的結果是AsyncResult類的例項,callback是可呼叫物件,接收輸入引數。當func的結果變為可用時,將理解傳遞給callback。callback禁止執行任何阻塞操作,否則將接收其他非同步操作中的結果。“`6 7 p.close():關閉程式池,防止進一步操作。如果所有操作持續掛起,它們將在工作程式終止前完成8 9 P.jion():等待所有工作程式退出。此方法只能在close()或teminate()之後呼叫
其他方法(瞭解)
1 方法apply_async()和map_async()的返回值是AsyncResul的例項obj。例項具有以下方法2 obj.get():返回結果,如果有必要則等待結果到達。timeout是可選的。如果在指定時間內還沒有到達,將引發一場。如果遠端操作中引發了異常,它將在呼叫此方法時再次被引發。3 obj.ready():如果呼叫完成,返回True4 obj.successful():如果呼叫完成且沒有引發異常,返回True,如果在結果就緒之前呼叫此方法,引發異常5 obj.wait([timeout]):等待結果變為可用。6 obj.terminate():立即終止所有工作程式,同時不執行任何清理或結束任何掛起工作。如果p被垃圾回收,將自動呼叫此函式
程式碼例項
同步和非同步
程式池的同步呼叫
import os,timefrom multiprocessing import Pooldef work(n):
print(`%s run` %os.getpid())
time.sleep(3)
return n**2if __name__ == `__main__`:
p=Pool(3) #程式池中從無到有建立三個程式,以後一直是這三個程式在執行任務 res_l=[]
for i in range(10):
res=p.apply(work,args=(i,)) # 同步呼叫,直到本次任務執行完畢拿到res,等待任務work執行的過程中可能有阻塞也可能沒有阻塞 # 但不管該任務是否存在阻塞,同步呼叫都會在原地等著 print(res_l)
程式池的非同步呼叫
import osimport timeimport randomfrom multiprocessing import Pooldef work(n):
print(`%s run` %os.getpid())
time.sleep(random.random())
return n**2if __name__ == `__main__`:
p=Pool(3) #程式池中從無到有建立三個程式,以後一直是這三個程式在執行任務 res_l=[]
for i in range(10):
res=p.apply_async(work,args=(i,)) # 非同步執行,根據程式池中有的程式數,每次最多3個子程式在非同步執行 # 返回結果之後,將結果放入列表,歸還程式,之後再執行新的任務 # 需要注意的是,程式池中的三個程式不會同時開啟或者同時結束 # 而是執行完一個就釋放一個程式,這個程式就去接收新的任務。 res_l.append(res)
# 非同步apply_async用法:如果使用非同步提交的任務,主程式需要使用jion,等待程式池內任務都處理完,然後可以用get收集結果 # 否則,主程式結束,程式池可能還沒來得及執行,也就跟著一起結束了 p.close()
p.join()
for res in res_l:
print(res.get()) #使用get來獲取apply_aync的結果,如果是apply,則沒有get方法,因為apply是同步執行,立刻獲取結果,也根本無需get
server:程式池版socket併發聊天
#Pool內的程式數預設是cpu核數,假設為4(檢視方法os.cpu_count())
#開啟6個客戶端,會發現2個客戶端處於等待狀態
#在每個程式內檢視pid,會發現pid使用為4個,即多個客戶端公用4個程式from socket import *from multiprocessing import Poolimport os
server=socket(AF_INET,SOCK_STREAM)
server.setsockopt(SOL_SOCKET,SO_REUSEADDR,1)
server.bind((`127.0.0.1`,8080))
server.listen(5)def talk(conn):
print(`程式pid: %s` %os.getpid())
while True:
try:
msg=conn.recv(1024)
if not msg:break conn.send(msg.upper())
except Exception:
breakif __name__ == `__main__`:
p=Pool(4)
while True:
conn,*_=server.accept()
p.apply_async(talk,args=(conn,))
# p.apply(talk,args=(conn,client_addr)) #同步的話,則同一時間只有一個客戶端能訪問
client
from socket import *
client=socket(AF_INET,SOCK_STREAM)
client.connect((`127.0.0.1`,8080))while True:
msg=input(`>>: `).strip()
if not msg:continue client.send(msg.encode(`utf-8`))
msg=client.recv(1024)
print(msg.decode(`utf-8`))
發現:併發開啟多個客戶端,服務端同一時間只有4個不同的pid,只能結束一個客戶端,另外一個客戶端才會進來.
回撥函式
需要回撥函式的場景:程式池中任何一個任務一旦處理完了,就立即告知主程式:我好了額,你可以處理我的結果了。主程式則呼叫一個函式去處理該結果,該函式即回撥函式
我們可以把耗時間(阻塞)的任務放到程式池中,然後指定回撥函式(主程式負責執行),這樣主程式在執行回撥函式時就省去了I/O的過程,直接拿到的是任務的結果。
使用多程式請求多個url來減少網路等待浪費的時間
from multiprocessing import Poolimport requestsimport jsonimport osdef get_page(url):
print(`<程式%s> get %s` %(os.getpid(),url))
respone=requests.get(url)
if respone.status_code == 200:
return {`url`:url,`text`:respone.text}def pasrse_page(res):
print(`<程式%s> parse %s` %(os.getpid(),res[`url`]))
parse_res=`url:<%s> size:[%s]
` %(res[`url`],len(res[`text`]))
with open(`db.txt`,`a`) as f:
f.write(parse_res)if __name__ == `__main__`:
urls=[
`https://www.baidu.com`,
`https://www.python.org`,
`https://www.openstack.org`,
`https://help.github.com/`,
`http://www.sina.com.cn/` ]
p=Pool(3)
res_l=[]
for url in urls:
res=p.apply_async(get_page,args=(url,),callback=pasrse_page)
res_l.append(res)
p.close()
p.join()
print([res.get() for res in res_l]) #拿到的是get_page的結果,其實完全沒必要拿該結果,該結果已經傳給回撥函式處理了“`
列印結果:
<程式3388> get https://www.baidu.com
<程式3389> get https://www.python.org
<程式3390> get https://www.openstack.org
<程式3388> get https://help.github.com/
<程式3387> parse https://www.baidu.com
<程式3389> get http://www.sina.com.cn/
<程式3387> parse https://www.python.org
<程式3387> parse https://help.github.com/
<程式3387> parse http://www.sina.com.cn/
<程式3387> parse https://www.openstack.org
[{`url`: `https://www.baidu.com`, `text`: `<!DOCTYPE html>
…`,…}]
“`
爬蟲例項
import refrom urllib.request import urlopenfrom multiprocessing import Pooldef get_page(url,pattern):
response=urlopen(url).read().decode(`utf-8`)
return pattern,responsedef parse_page(info):
pattern,page_content=info
res=re.findall(pattern,page_content)
for item in res:
dic={
`index`:item[0].strip(),
`title`:item[1].strip(),
`actor`:item[2].strip(),
`time`:item[3].strip(),
}
print(dic)if __name__ == `__main__`:
regex = r`<dd>.*?<.*?class=”board-index.*?>(d+)</i>.*?title=”(.*?)”.*?class=”movie-item-info”.*?<p class=”star”>(.*?)</p>.*?<p class=”releasetime”>(.*?)</p>` pattern1=re.compile(regex,re.S)
url_dic={
`http://maoyan.com/board/7`:pattern1,
}
p=Pool()
res_l=[]
for url,pattern in url_dic.items():
res=p.apply_async(get_page,args=(url,pattern),callback=parse_page)
res_l.append(res)
for i in res_l:
i.get()
如果在主程式中等待程式池中所有任務都執行完畢後,再統一處理結果,則無需回撥函式
無需回撥函式
from multiprocessing import Poolimport time,random,osdef work(n):
time.sleep(1)
return n**2if __name__ == `__main__`:
p=Pool()
res_l=[]
for i in range(10):
res=p.apply_async(work,args=(i,))
res_l.append(res)
p.close()
p.join() #等待程式池中所有程式執行完畢 nums=[]
for res in res_l:
nums.append(res.get()) #拿到所有結果 print(nums) #主程式拿到所有的處理結果,可以在主程式中進行統一進行處理
相關文章
- Linux 下的程式間通訊:使用管道和訊息佇列Linux佇列
- 程式間通訊--訊息佇列佇列
- 程式間通訊——XSI IPC之訊息佇列佇列
- linux 程式間通訊之管道Linux
- Linux 的程式間通訊:管道Linux
- linux 程式間通訊之System V 訊息佇列Linux佇列
- 程序間通訊(2)-訊息佇列佇列
- Linux程式間通訊②:有名管道FIFOLinux
- linux程式間通訊--管道(PIPE & FIFO)Linux
- 2.Python程式間的通訊之佇列(Queue)和生產者消費者模型Python佇列模型
- 溫故之.NET程式間通訊——管道
- Linux系統程式設計之程式間通訊方式:訊息佇列Linux程式設計佇列
- 程式間通訊——基於共享記憶體和訊號量實現共享佇列記憶體佇列
- 程序間通訊(1)-管道
- 管道流間的通訊
- linux 程式間通訊之System V 訊息佇列 www.weiboke.onlineLinux佇列
- 3|程式間通訊--有名管道學習筆記筆記
- Linux系統程式設計之程式間通訊方式:管道(二)Linux程式設計
- Linux系統程式設計之程式間通訊方式:管道(一)Linux程式設計
- Linux系統程式設計之程式間通訊方式:命名管道(二)Linux程式設計
- Linux系統程式設計之程式間通訊方式:命名管道(一)Linux程式設計
- 利用管道Pipelines做程序間的通訊
- 系統程式設計——管道通訊程式設計
- Python使用RocketMQ(訊息佇列)PythonMQ佇列
- 在Go和Python之間通過ActiveMQ通訊GoPythonMQ
- Java 和 Python 之間的 Socket 通訊JavaPython
- 佇列 優先順序佇列 python 程式碼實現佇列Python
- 兩個專案用訊息佇列通訊佇列
- 深入Python程式間通訊原理--圖文版Python
- 利用windows api實現程式通訊(命名管道)WindowsAPI
- Windows程式通訊之一看就懂的匿名管道通訊Windows
- Python 通過List 實現佇列的操作Python佇列
- PHP程式間通訊PHP
- 程式間通訊——LINUXLinux
- 程式間通訊(Socket)
- 程式間的通訊
- Linux程式間通訊Linux
- 通過佇列實現棧OR通過棧實現佇列佇列