RabbitMQ從入門到精通

擒賊先擒王發表於2017-07-12

 

From:http://blog.csdn.net/column/details/rabbitmq.html

 

 

RabbitMQ 介紹

 

歷史

 

    RabbitMQ是一個由erlang開發的AMQP(Advanced Message Queue )的開源實現。AMQP 的出現其實也是應了廣大人民群眾的需求,雖然在同步訊息通訊的世界裡有很多公開標準(如 COBAR的 IIOP ,或者是 SOAP 等),但是在非同步訊息處理中卻不是這樣,只有大企業有一些商業實現(如微軟的 MSMQ ,IBM 的 Websphere MQ 等),因此,在 2006 年的 6 月,Cisco 、Redhat、iMatix 等聯合制定了 AMQP 的公開標準。

    RabbitMQ是由RabbitMQ Technologies Ltd開發並且提供商業支援的。該公司在2010年4月被SpringSource(VMWare的一個部門)收購。在2013年5月被併入Pivotal。其實VMWare,Pivotal和EMC本質上是一家的。不同的是VMWare是獨立上市子公司,而Pivotal是整合了EMC的某些資源,現在並沒有上市。

    RabbitMQ的官網是:http://www.rabbitmq.com

 

 

 

應用場景

 

 

     言歸正傳。RabbitMQ,或者說AMQP解決了什麼問題,或者說它的應用場景是什麼?

     對於一個大型的軟體系統來說,它會有很多的元件或者說模組或者說子系統或者(subsystem or Component or submodule)。那麼這些模組的如何通訊?這和傳統的IPC有很大的區別。傳統的IPC很多都是在單一系統上的,模組耦合性很大,不適合擴充套件(Scalability);如果使用socket那麼不同的模組的確可以部署到不同的機器上,但是還是有很多問題需要解決。比如:

 1)資訊的傳送者和接收者如何維持這個連線,如果一方的連線中斷,這期間的資料如何方式丟失?

 2)如何降低傳送者和接收者的耦合度?

 3)如何讓Priority高的接收者先接到資料?

 4)如何做到load balance?有效均衡接收者的負載?

 5)如何有效的將資料傳送到相關的接收者?也就是說將接收者subscribe 不同的資料,如何做有效的filter。

 6)如何做到可擴充套件,甚至將這個通訊模組發到cluster上?

 7)如何保證接收者接收到了完整,正確的資料?

  AMDQ協議解決了以上的問題,而RabbitMQ實現了AMQP。

 

系統架構

 

 

 

成為系統架構可能不太合適,可能叫應用場景的系統架構更合適。

  

    這個系統架構圖版權屬於sunjun041640。

    RabbitMQ Server: 也叫broker server,它不是運送食物的卡車,而是一種傳輸服務。原話是RabbitMQisn’t a food truck, it’s a delivery service. 他的角色就是維護一條從Producer到Consumer的路線,保證資料能夠按照指定的方式進行傳輸。但是這個保證也不是100%的保證,但是對於普通的應用來說這已經足夠了。當然對於商業系統來說,可以再做一層資料一致性的guard,就可以徹底保證系統的一致性了。

    Client A & B: 也叫Producer,資料的傳送方。createmessages and publish (send) them to a broker server (RabbitMQ).一個Message有兩個部分:payload(有效載荷)和label(標籤)。payload顧名思義就是傳輸的資料。label是exchange的名字或者說是一個tag,它描述了payload,而且RabbitMQ也是通過這個label來決定把這個Message發給哪個Consumer。AMQP僅僅描述了label,而RabbitMQ決定了如何使用這個label的規則。

    Client 1,2,3:也叫Consumer,資料的接收方。Consumersattach to a broker server (RabbitMQ) and subscribe to a queue。把queue比作是一個有名字的郵箱。當有Message到達某個郵箱後,RabbitMQ把它傳送給它的某個訂閱者即Consumer。當然可能會把同一個Message傳送給很多的Consumer。在這個Message中,只有payload,label已經被刪掉了。對於Consumer來說,它是不知道誰傳送的這個資訊的。就是協議本身不支援。但是當然瞭如果Producer傳送的payload包含了Producer的資訊就另當別論了。

     對於一個資料從Producer到Consumer的正確傳遞,還有三個概念需要明確:exchanges, queues and bindings。

        Exchanges are where producers publish their messages.

        Queuesare where the messages end up and are received by consumers

        Bindings are how the messages get routed from the exchange to particular queues.

   還有幾個概念是上述圖中沒有標明的,那就是Connection(連線),Channel(通道,頻道)。

 

   Connection: 就是一個TCP的連線。Producer和Consumer都是通過TCP連線到RabbitMQ Server的。以後我們可以看到,程式的起始處就是建立這個TCP連線。

   Channels: 虛擬連線。它建立在上述的TCP連線中。資料流動都是在Channel中進行的。也就是說,一般情況是程式起始建立TCP連線,第二步就是建立這個Channel。

    那麼,為什麼使用Channel,而不是直接使用TCP連線?

    對於OS來說,建立和關閉TCP連線是有代價的,頻繁的建立關閉TCP連線對於系統的效能有很大的影響,而且TCP的連線數也有限制,這也限制了系統處理高併發的能力。但是,在TCP連線中建立Channel是沒有上述代價的。對於Producer或者Consumer來說,可以併發的使用多個Channel進行Publish或者Receive。有實驗表明,1s的資料可以Publish10K的資料包。當然對於不同的硬體環境,不同的資料包大小這個資料肯定不一樣,但是我只想說明,對於普通的Consumer或者Producer來說,這已經足夠了。如果不夠用,你考慮的應該是如何細化split你的設計。

 

進一步的細節闡明

 

 

使用ack確認Message的正確傳遞

 

預設情況下,如果Message 已經被某個Consumer正確的接收到了,那麼該Message就會被從queue中移除。當然也可以讓同一個Message傳送到很多的Consumer。

    如果一個queue沒被任何的Consumer Subscribe(訂閱),那麼,如果這個queue有資料到達,那麼這個資料會被cache,不會被丟棄。當有Consumer時,這個資料會被立即傳送到這個Consumer,這個資料被Consumer正確收到時,這個資料就被從queue中刪除。

     那麼什麼是正確收到呢?通過ack。每個Message都要被acknowledged(確認,ack)。我們可以顯示的在程式中去ack,也可以自動的ack。如果有資料沒有被ack,那麼:

     RabbitMQ Server會把這個資訊傳送到下一個Consumer。

    如果這個app有bug,忘記了ack,那麼RabbitMQ Server不會再傳送資料給它,因為Server認為這個Consumer處理能力有限。

   而且ack的機制可以起到限流的作用(Benefitto throttling):在Consumer處理完成資料後傳送ack,甚至在額外的延時後傳送ack,將有效的balance Consumer的load。

   當然對於實際的例子,比如我們可能會對某些資料進行merge,比如merge 4s內的資料,然後sleep 4s後再獲取資料。特別是在監聽系統的state,我們不希望所有的state實時的傳遞上去,而是希望有一定的延時。這樣可以減少某些IO,而且終端使用者也不會感覺到。

 

Reject a message

 

   有兩種方式,第一種的Reject可以讓RabbitMQ Server將該Message 傳送到下一個Consumer。第二種是從queue中立即刪除該Message。

 

Creating a queue

      Consumer和Procuder都可以通過 queue.declare 建立queue。對於某個Channel來說,Consumer不能declare一個queue,卻訂閱其他的queue。當然也可以建立私有的queue。這樣只有app本身才可以使用這個queue。queue也可以自動刪除,被標為auto-delete的queue在最後一個Consumer unsubscribe後就會被自動刪除。那麼如果是建立一個已經存在的queue呢?那麼不會有任何的影響。需要注意的是沒有任何的影響,也就是說第二次建立如果引數和第一次不一樣,那麼該操作雖然成功,但是queue的屬性並不會被修改。

 

    那麼誰應該負責建立這個queue呢?是Consumer,還是Producer?

如果queue不存在,當然Consumer不會得到任何的Message。但是如果queue不存在,那麼Producer Publish的Message會被丟棄。所以,還是為了資料不丟失,Consumer和Producer都try to create the queue!反正不管怎麼樣,這個介面都不會出問題。

   queue對load balance的處理是完美的。對於多個Consumer來說,RabbitMQ 使用迴圈的方式(round-robin)的方式均衡的傳送給不同的Consumer。

Exchanges

 

    從架構圖可以看出,Procuder Publish的Message進入了Exchange。接著通過“routing keys”, RabbitMQ會找到應該把這個Message放到哪個queue裡。queue也是通過這個routing keys來做的繫結。

     有三種型別的Exchanges:direct, fanout,topic。 每個實現了不同的路由演算法(routing algorithm)。

·        Direct exchange: 如果 routing key 匹配, 那麼Message就會被傳遞到相應的queue中。其實在queue建立時,它會自動的以queue的名字作為routing key來繫結那個exchange。

·        Fanout exchange: 會向響應的queue廣播。

·        Topic exchange: 對key進行模式匹配,比如ab*可以傳遞到所有ab*的queue。

 

Virtual hosts

 

 

   每個virtual host本質上都是一個RabbitMQ Server,擁有它自己的queue,exchagne,和bings rule等等。這保證了你可以在多個不同的application中使用RabbitMQ。

   接下來我會使用Python來說明RabbitMQ的使用方法。

 

python 使用 RabbitMQ 寫 "Hello World"

 

http://www.rabbitmq.com/tutorials/tutorial-one-python.html

 

使用Python(pika 0.9.8)實現從Producer到Consumer傳遞資料”Hello, World“。

 

     RabbitMQ實現了AMQP定義的訊息佇列。它實現的功能”非常簡單“:從Producer接收資料然後傳遞到Consumer。它能保證多併發,資料安全傳遞,可擴充套件。

     和任何的Hello world一樣,它們都不復雜。我們將會設計兩個程式,一個傳送Hello world,另一個接收這個資料並且列印到螢幕。
      整體的設計如下圖:

 

 

環境配置

 

 

 

RabbitMQ 實現了AMQP。因此,我們需要安裝AMPQ的library。幸運的是對於多種程式語言都有實現。我們可以使用以下lib的任何一個:

在這裡我們將使用pika. 可以通過 pip 包管理工具來安裝:

$ sudo pip install pika==0.9.8  

 

 

這個安裝依賴於pip和Git-core。

  • On Ubuntu:

    $ sudo apt-get install python-pip git-core
    
  • On Debian:

    $ sudo apt-get install python-setuptools git-core
    $ sudo easy_install pip
    
  • On Windows:To install easy_install, run the MS Windows Installer for setuptools

    > easy_install pip
    > pip install pika==0.9.8

 

Sending

 

 

 

第一個program send.py:傳送Hello world 到queue。正如我們在上篇文章提到的,你程式的第一句話就是建立連線,第二句話就是建立channel:

#!/usr/bin/env python  
import pika  
  
connection = pika.BlockingConnection(pika.ConnectionParameters(  
               'localhost'))  
channel = connection.channel()  

建立連線傳入的引數就是RabbitMQ Server的ip或者name。關於誰建立queue,上面也討論過:Producer和Consumer都應該去建立。接下來我們建立名字為hello的queue:

 

channel.queue_declare(queue='hello')  

 

建立了channel,我們可以通過相應的命令來list queue:

 

$ sudo rabbitmqctl list_queues  
Listing queues ...  
hello    0  
...done.  

 

現在我們已經準備好了傳送了。

從架構圖可以看出,Producer只能傳送到exchange,它是不能直接傳送到queue的。

現在我們使用預設的exchange(名字是空字元)。這個預設的exchange允許我們傳送給指定的queue。routing_key就是指定的queue名字。

 

channel.basic_publish(exchange='',  
                      routing_key='hello',  
                      body='Hello World!')  
print " [x] Sent 'Hello World!'"  

 

退出前別忘了關閉connection。

 

connection.close()  

 

Receiving

 

 

第二個program receive.py 將從queue中獲取Message並且列印到螢幕。

第一步還是建立connection。第二步建立channel。第三步建立queue,name = hello:

 

 

 

channel.queue_declare(queue='hello')  

 

接下來要subscribe了。在這之前,需要宣告一個回撥函式來處理接收到的資料。

 

def callback(ch, method, properties, body):  
    print " [x] Received %r" % (body,)  

 

subscribe:

 

channel.basic_consume(callback,  
                      queue='hello',  
                      no_ack=True)  

 

最後,準備好無限迴圈監聽吧:

 

print ' [*] Waiting for messages. To exit press CTRL+C'  
channel.start_consuming()  

 

最終版本

send.py:

 

#!/usr/bin/env python  
import pika  
  
connection = pika.BlockingConnection(pika.ConnectionParameters(  
        host='localhost'))  
channel = connection.channel()  
  
channel.queue_declare(queue='hello')  
  
channel.basic_publish(exchange='',  
                      routing_key='hello',  
                      body='Hello World!')  
print " [x] Sent 'Hello World!'"  
connection.close()  

 

 receive.py:

 

#!/usr/bin/env python  
import pika  
  
connection = pika.BlockingConnection(pika.ConnectionParameters(  
        host='localhost'))  
channel = connection.channel()  
  
channel.queue_declare(queue='hello')  
  
print ' [*] Waiting for messages. To exit press CTRL+C'  
  
def callback(ch, method, properties, body):  
    print " [x] Received %r" % (body,)  
  
channel.basic_consume(callback,  
                      queue='hello',  
                      no_ack=True)  
  
channel.start_consuming()  

 

最終執行

先執行 send.py program:

 

$ python send.py  
[x] Sent 'Hello World!'  

 

send.py 每次執行完都會停止。注意:現在資料已經存到queue裡了。接收它:

 

$ python receive.py  
[*] Waiting for messages. To exit press CTRL+C  
[x] Received 'Hello World!'  

 

 

任務分發機制

 

http://www.rabbitmq.com/tutorials/tutorial-two-Python.html

 

   上面解決了從傳送端(Producer)向接收端(Consumer)傳送“Hello World”的問題。在實際的應用場景中,這是遠遠不夠的。現在將結合更加實際的應用場景來講解更多的高階用法。

   當有Consumer需要大量的運算時,RabbitMQ Server需要一定的分發機制來balance每個Consumer的load。試想一下,對於web application來說,在一個很多的HTTP request裡是沒有時間來處理複雜的運算的,只能通過後臺的一些工作執行緒來完成。接下來我們分佈講解。 

   應用場景就是RabbitMQ Server會將queue的Message分發給不同的Consumer以處理計算密集型的任務:

 

準備

 

 

在上面,我們簡單在Message中包含了一個字串"Hello World"。現在為了是Consumer做的是計算密集型的工作,那就不能簡單的字串了。在現實應用中,Consumer有可能做的是一個圖片的resize,或者是pdf檔案的渲染或者內容提取。但是作為Demo,還是用字串模擬吧:通過字串中的.的數量來決定計算的複雜度,每個.都會消耗1s,即sleep(1)。

    還是複用上面的code,根據“計算密集型”做一下簡單的修改,為了辨別,我們把send.py 的名字換成new_task.py

import sys  
  
message = ' '.join(sys.argv[1:]) or "Hello World!"  
channel.basic_publish(exchange='',  
                      routing_key='hello',  
                      body=message)  
print " [x] Sent %r" % (message,)  

同樣的道理,把receive.py的名字換成worker.py,並且根據Message中的.的數量進行計算密集型模擬:

 

import time  
  
def callback(ch, method, properties, body):  
    print " [x] Received %r" % (body,)  
    time.sleep( body.count('.') )  
    print " [x] Done"  

 

Round-robin dispatching 迴圈分發

 

        RabbitMQ的分發機制非常適合擴充套件,而且它是專門為併發程式設計的。如果現在load加重,那麼只需要建立更多的Consumer來進行任務處理即可。當然了,對於負載還要加大怎麼辦?我沒有遇到過這種情況,那就可以建立多個virtual Host,細化不同的通訊類別了。

     首先開啟兩個Consumer,即執行兩個worker.py。

Console1:

 

 

 

shell1$ python worker.py  
 [*] Waiting for messages. To exit press CTRL+C  

 

Consule2:

 

shell2$ python worker.py  
 [*] Waiting for messages. To exit press CTRL+C  

 

Producer new_task.py要Publish Message了:

 

shell3$ python new_task.py First message.  
shell3$ python new_task.py Second message..  
shell3$ python new_task.py Third message...  
shell3$ python new_task.py Fourth message....  
shell3$ python new_task.py Fifth message.....  

 

注意一下:.代表的sleep(1)。接著開一下Consumer worker.py收到了什麼:

 

Console1:

shell1$ python worker.py  
 [*] Waiting for messages. To exit press CTRL+C  
 [x] Received 'First message.'  
 [x] Received 'Third message...'  
 [x] Received 'Fifth message.....'  

Console2:

 

shell2$ python worker.py  
 [*] Waiting for messages. To exit press CTRL+C  
 [x] Received 'Second message..'  
 [x] Received 'Fourth message....'  

 

預設情況下,RabbitMQ 會順序的分發每個Message。當每個收到ack後,會將該Message刪除,然後將下一個Message分發到下一個Consumer。這種分發方式叫做round-robin。這種分發還有問題,接著向下讀吧。

Message acknowledgment 訊息確認

 

      每個Consumer可能需要一段時間才能處理完收到的資料。如果在這個過程中,Consumer出錯了,異常退出了,而資料還沒有處理完成,那麼非常不幸,這段資料就丟失了。因為我們採用no-ack的方式進行確認,也就是說,每次Consumer接到資料後,而不管是否處理完成,RabbitMQ Server會立即把這個Message標記為完成,然後從queue中刪除了。

     如果一個Consumer異常退出了,它處理的資料能夠被另外的Consumer處理,這樣資料在這種情況下就不會丟失了(注意是這種情況下)。

      為了保證資料不被丟失,RabbitMQ支援訊息確認機制,即acknowledgments。為了保證資料能被正確處理而不僅僅是被Consumer收到,那麼我們不能採用no-ack。而應該是在處理完資料後傳送ack。

    在處理資料後傳送的ack,就是告訴RabbitMQ資料已經被接收,處理完成,RabbitMQ可以去安全的刪除它了。

    如果Consumer退出了但是沒有傳送ack,那麼RabbitMQ就會把這個Message傳送到下一個Consumer。這樣就保證了在Consumer異常退出的情況下資料也不會丟失。

    這裡並沒有用到超時機制。RabbitMQ僅僅通過Consumer的連線中斷來確認該Message並沒有被正確處理。也就是說,RabbitMQ給了Consumer足夠長的時間來做資料處理。

    預設情況下,訊息確認是開啟的(enabled)。在上篇文章中我們通過no_ack = True 關閉了ack。重新修改一下callback,以在訊息處理完成後傳送ack:

 

 

 

def callback(ch, method, properties, body):  
    print " [x] Received %r" % (body,)  
    time.sleep( body.count('.') )  
    print " [x] Done"  
    ch.basic_ack(delivery_tag = method.delivery_tag)  
  
channel.basic_consume(callback,  
                      queue='hello')  

 

     這樣即使你通過Ctr-C中斷了worker.py,那麼Message也不會丟失了,它會被分發到下一個Consumer。

 

      如果忘記了ack,那麼後果很嚴重。當Consumer退出時,Message會重新分發。然後RabbitMQ會佔用越來越多的記憶體,由於RabbitMQ會長時間執行,因此這個“記憶體洩漏”是致命的。去除錯這種錯誤,可以通過一下命令列印un-acked Messages:

$ sudo rabbitmqctl list_queues name messages_ready messages_unacknowledged  
Listing queues ...  
hello    0       0  
...done.  

Message durability訊息持久化

 

     在上一節中我們知道了即使Consumer異常退出,Message也不會丟失。但是如果RabbitMQ Server退出呢?軟體都有bug,即使RabbitMQ Server是完美毫無bug的(當然這是不可能的,是軟體就有bug,沒有bug的那不叫軟體),它還是有可能退出的:被其它軟體影響,或者系統重啟了,系統panic了。。。

    為了保證在RabbitMQ退出或者crash了資料仍沒有丟失,需要將queue和Message都要持久化。

queue的持久化需要在宣告時指定durable=True:

channel.queue_declare(queue='hello', durable=True)  

上述語句執行不會有什麼錯誤,但是確得不到我們想要的結果,原因就是RabbitMQ Server已經維護了一個叫hello的queue,那麼上述執行不會有任何的作用,也就是hello的任何屬性都不會被影響。這一點在上篇文章也討論過。

 

那麼workaround也很簡單,宣告一個另外的名字的queue,比如名字定位task_queue:

 

[python] view plain copy

  1. channel.queue_declare(queue='task_queue', durable=True)  

再次強調,Producer和Consumer都應該去建立這個queue,儘管只有一個地方的建立是真正起作用的:

 

接下來,需要持久化Message,即在Publish的時候指定一個properties,方式如下:

 

[python] view plain copy

  1. channel.basic_publish(exchange='',  
  2.                       routing_key="task_queue",  
  3.                       body=message,  
  4.                       properties=pika.BasicProperties(  
  5.                          delivery_mode = 2, # make message persistent  
  6.                       ))  

關於持久化的進一步討論:

 

    為了資料不丟失,我們採用了:

  1. 在資料處理結束後傳送ack,這樣RabbitMQ Server會認為Message Deliver 成功。
  2. 持久化queue,可以防止RabbitMQ Server 重啟或者crash引起的資料丟失。
  3. 持久化Message,理由同上。

    但是這樣能保證資料100%不丟失嗎?

    答案是否定的。問題就在與RabbitMQ需要時間去把這些資訊存到磁碟上,這個time window雖然短,但是它的確還是有。在這個時間視窗內如果資料沒有儲存,資料還會丟失。還有另一個原因就是RabbitMQ並不是為每個Message都做fsync:它可能僅僅是把它儲存到Cache裡,還沒來得及儲存到物理磁碟上。

    因此這個持久化還是有問題。但是對於大多數應用來說,這已經足夠了。當然為了保持一致性,你可以把每次的publish放到一個transaction中。這個transaction的實現需要user defined codes。

    那麼商業系統會做什麼呢?一種可能的方案是在系統panic時或者異常重啟時或者斷電時,應該給各個應用留出時間去flash cache,保證每個應用都能exit gracefully。

Fair dispatch 公平分發

 

    你可能也注意到了,分發機制不是那麼優雅。預設狀態下,RabbitMQ將第n個Message分發給第n個Consumer。當然n是取餘後的。它不管Consumer是否還有unacked Message,只是按照這個預設機制進行分發。

   那麼如果有個Consumer工作比較重,那麼就會導致有的Consumer基本沒事可做,有的Consumer卻是毫無休息的機會。那麼,RabbitMQ是如何處理這種問題呢?

 

  通過 basic.qos 方法設定prefetch_count=1 。這樣RabbitMQ就會使得每個Consumer在同一個時間點最多處理一個Message。換句話說,在接收到該Consumer的ack前,他它不會將新的Message分發給它。 設定方法如下:

 

[python] view plain copy

  1. channel.basic_qos(prefetch_count=1)  

注意,這種方法可能會導致queue滿。當然,這種情況下你可能需要新增更多的Consumer,或者建立更多的virtualHost來細化你的設計。

 

 

 

最終版本

 

new_task.py script:

 

[python] view plain copy

  1. #!/usr/bin/env python  
  2. import pika  
  3. import sys  
  4.   
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  6.         host='localhost'))  
  7. channel = connection.channel()  
  8.   
  9. channel.queue_declare(queue='task_queue', durable=True)  
  10.   
  11. message = ' '.join(sys.argv[1:]) or "Hello World!"  
  12. channel.basic_publish(exchange='',  
  13.                       routing_key='task_queue',  
  14.                       body=message,  
  15.                       properties=pika.BasicProperties(  
  16.                          delivery_mode = 2, # make message persistent  
  17.                       ))  
  18. print " [x] Sent %r" % (message,)  
  19. connection.close()  

 

worker.py script:

 

[python] view plain copy

  1. #!/usr/bin/env python  
  2. import pika  
  3. import time  
  4.   
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  6.         host='localhost'))  
  7. channel = connection.channel()  
  8.   
  9. channel.queue_declare(queue='task_queue', durable=True)  
  10. print ' [*] Waiting for messages. To exit press CTRL+C'  
  11.   
  12. def callback(ch, method, properties, body):  
  13.     print " [x] Received %r" % (body,)  
  14.     time.sleep( body.count('.') )  
  15.     print " [x] Done"  
  16.     ch.basic_ack(delivery_tag = method.delivery_tag)  
  17.   
  18. channel.basic_qos(prefetch_count=1)  
  19. channel.basic_consume(callback,  
  20.                       queue='task_queue')  
  21.   
  22. channel.start_consuming()  

 

分發到多Consumer(Publish/Subscribe)

 

http://www.rabbitmq.com/tutorials/tutorial-three-Python.html

 

      上篇文章中,我們把每個Message都是deliver到某個Consumer。在這篇文章中,我們將會將同一個Message deliver到多個Consumer中。這個模式也被成為 "publish / subscribe"。
    這篇文章中,我們將建立一個日誌系統,它包含兩個部分:第一個部分是發出log(Producer),第二個部分接收到並列印(Consumer)。 我們將構建兩個Consumer,第一個將log寫到物理磁碟上;第二個將log輸出的螢幕。

 

Exchanges

 

    RabbitMQ 的Messaging Model就是Producer並不會直接傳送Message到queue。實際上,Producer並不知道它傳送的Message是否已經到達queue。

   Producer傳送的Message實際上是發到了Exchange中。它的功能也很簡單:從Producer接收Message,然後投遞到queue中。Exchange需要知道如何處理Message,是把它放到那個queue中,還是放到多個queue中?這個rule是通過Exchange 的型別定義的。

 

   我們知道有三種型別的Exchange:direct, topic 和fanout。fanout就是廣播模式,會將所有的Message都放到它所知道的queue中。建立一個名字為logs,型別為fanout的Exchange:

 

[python] view plain copy

  1. channel.exchange_declare(exchange='logs',  
  2.                          type='fanout')  

 

Listing exchanges

通過rabbitmqctl可以列出當前所有的Exchange:

 

[python] view plain copy

  1. $ sudo rabbitmqctl list_exchanges  
  2. Listing exchanges ...  
  3. logs      fanout  
  4. amq.direct      direct  
  5. amq.topic       topic  
  6. amq.fanout      fanout  
  7. amq.headers     headers  
  8. ...done.  


注意 amq.* exchanges 和the default (unnamed)exchange是RabbitMQ預設建立的。

 

現在我們可以通過exchange,而不是routing_key來publish Message了:

 

[python] view plain copy

  1. channel.basic_publish(exchange='logs',  
  2.                       routing_key='',  
  3.                       body=message)  

 

Temporary queues

 

 

    截至現在,我們用的queue都是有名字的:第一個是hello,第二個是task_queue。使用有名字的queue,使得在Producer和Consumer之前共享queue成為可能。

    但是對於我們將要構建的日誌系統,並不需要有名字的queue。我們希望得到所有的log,而不是它們中間的一部分。而且我們只對當前的log感興趣。為了實現這個目標,我們需要兩件事情:
    1) 每當Consumer連線時,我們需要一個新的,空的queue。因為我們不對老的log感興趣。幸運的是,如果在宣告queue時不指定名字,那麼RabbitMQ會隨機為我們選擇這個名字。方法:

 

[python] view plain copy

  1. result = channel.queue_declare()  

    通過result.method.queue 可以取得queue的名字。基本上都是這個樣子:amq.gen-JzTY20BRgKO-HjmUJj0wLg
    2)當Consumer關閉連線時,這個queue要被deleted。可以加個exclusive的引數。方法:

 

[python] view plain copy

  1. result = channel.queue_declare(exclusive=True)  

 

Bindings繫結

 

 

現在我們已經建立了fanout型別的exchange和沒有名字的queue(實際上是RabbitMQ幫我們取了名字)。那exchange怎麼樣知道它的Message傳送到哪個queue呢?答案就是通過bindings:繫結。

 

方法:

 

[python] view plain copy

  1. channel.queue_bind(exchange='logs',  
  2.                    queue=result.method.queue)  

現在logs的exchange就將它的Message附加到我們建立的queue了。

 

Listing bindings

使用命令rabbitmqctl list_bindings。

 

最終版本

 

 

    我們最終實現的資料流圖如下:

Producer,在這裡就是產生log的program,基本上和前幾個都差不多。最主要的區別就是publish通過了exchange而不是routing_key。

emit_log.py script:

 

[python] view plain copy

  1. #!/usr/bin/env python  
  2. import pika  
  3. import sys  
  4.   
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  6.         host='localhost'))  
  7. channel = connection.channel()  
  8.   
  9. channel.exchange_declare(exchange='logs',  
  10.                          type='fanout')  
  11.   
  12. message = ' '.join(sys.argv[1:]) or "info: Hello World!"  
  13. channel.basic_publish(exchange='logs',  
  14.                       routing_key='',  
  15.                       body=message)  
  16. print " [x] Sent %r" % (message,)  
  17. connection.close()  

 

還有一點要注意的是我們宣告瞭exchange。publish到一個不存在的exchange是被禁止的。如果沒有queue bindings exchange的話,log是被丟棄的。
Consumer:receive_logs.py:

 

[python] view plain copy

  1. #!/usr/bin/env python  
  2. import pika  
  3.   
  4. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  5.         host='localhost'))  
  6. channel = connection.channel()  
  7.   
  8. channel.exchange_declare(exchange='logs',  
  9.                          type='fanout')  
  10.   
  11. result = channel.queue_declare(exclusive=True)  
  12. queue_name = result.method.queue  
  13.   
  14. channel.queue_bind(exchange='logs',  
  15.                    queue=queue_name)  
  16.   
  17. print ' [*] Waiting for logs. To exit press CTRL+C'  
  18.   
  19. def callback(ch, method, properties, body):  
  20.     print " [x] %r" % (body,)  
  21.   
  22. channel.basic_consume(callback,  
  23.                       queue=queue_name,  
  24.                       no_ack=True)  
  25.   
  26. channel.start_consuming()  

我們開始不是說需要兩個Consumer嗎?一個負責記錄到檔案;一個負責列印到螢幕?
其實用重定向就可以了,當然你想修改callback自己寫檔案也行。我們使用重定向的方法:
We're done. If you want to save logs to a file, just open a console and type:

 

[python] view plain copy

  1. $ python receive_logs.py > logs_from_rabbit.log  

Consumer2:列印到螢幕:

 

[python] view plain copy

  1. $ python receive_logs.py  

接下來,Producer:

 

[python] view plain copy

  1. $ python emit_log.py  

使用命令rabbitmqctl list_bindings你可以看我們建立的queue。
一個output:

 

[python] view plain copy

  1. $ sudo rabbitmqctl list_bindings  
  2. Listing bindings ...  
  3. logs    exchange        amq.gen-JzTY20BRgKO-HjmUJj0wLg  queue           []  
  4. logs    exchange        amq.gen-vso0PVvyiRIL2WoV3i48Yg  queue           []  
  5. ...done.  

這個結果還是很好理解的。

 

 

 

Routing 訊息路由

http://www.rabbitmq.com/tutorials/tutorial-four-Python.html

 

    上篇文章中,我們構建了一個簡單的日誌系統。接下來,我們將豐富它:能夠使用不同的severity來監聽不同等級的log。比如我們希望只有error的log才儲存到磁碟上。

 

 

Bindings繫結

 

 

    上篇文章中我們是這麼做的繫結:

 

[python] view plain copy

  1. channel.queue_bind(exchange=exchange_name,  
  2.                    queue=queue_name)  

    繫結其實就是關聯了exchange和queue。或者這麼說:queue對exchagne的內容感興趣,exchange要把它的Message deliver到queue中。

 

    實際上,繫結可以帶routing_key 這個引數。其實這個引數的名稱和basic_publish 的引數名是相同了。為了避免混淆,我們把它成為binding key。
    使用一個key來建立binding :

 

[python] view plain copy

  1. channel.queue_bind(exchange=exchange_name,  
  2.                    queue=queue_name,  
  3.                    routing_key='black')  

對於fanout的exchange來說,這個引數是被忽略的。

 

 

Direct exchange

 

 

  Direct exchange的路由演算法非常簡單:通過binding key的完全匹配,可以通過下圖來說明。 


    exchange X和兩個queue繫結在一起。Q1的binding key是orange。Q2的binding key是black和green。
    當P publish key是orange時,exchange會把它放到Q1。如果是black或者green那麼就會到Q2。其餘的Message都會被丟棄。

 

 

Multiple bindings

 

      多個queue繫結同一個key是可以的。對於下圖的例子,Q1和Q2都繫結了black。也就是說,對於routing key是black的Message,會被deliver到Q1和Q2。其餘的Message都會被丟棄。

  

 

Emitting logs

 

首先是我們要建立一個direct的exchange:

 

[python] view plain copy

  1. channel.exchange_declare(exchange='direct_logs',  
  2.                          type='direct')  

我們將使用log的severity作為routing key,這樣Consumer可以針對不同severity的log進行不同的處理。
publish:

 

 

[python] view plain copy

  1. channel.basic_publish(exchange='direct_logs',  
  2.                       routing_key=severity,  
  3.                       body=message)  

我們使用三種severity:'info', 'warning', 'error'.

 

 

Subscribing

 

對於queue,我們需要繫結severity:

 

[python] view plain copy

  1. result = channel.queue_declare(exclusive=True)  
  2. queue_name = result.method.queue  
  3.   
  4. for severity in severities:  
  5.     channel.queue_bind(exchange='direct_logs',  
  6.                        queue=queue_name,  
  7.                        routing_key=severity)  

 

 

最終版本

 

The code for emit_log_direct.py:

 

[python] view plain copy

  1. #!/usr/bin/env python  
  2. import pika  
  3. import sys  
  4.   
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  6.         host='localhost'))  
  7. channel = connection.channel()  
  8.   
  9. channel.exchange_declare(exchange='direct_logs',  
  10.                          type='direct')  
  11.   
  12. severity = sys.argv[1] if len(sys.argv) > 1 else 'info'  
  13. message = ' '.join(sys.argv[2:]) or 'Hello World!'  
  14. channel.basic_publish(exchange='direct_logs',  
  15.                       routing_key=severity,  
  16.                       body=message)  
  17. print " [x] Sent %r:%r" % (severity, message)  
  18. connection.close()  


The code for receive_logs_direct.py:

 

 

[python] view plain copy

  1. #!/usr/bin/env python  
  2. import pika  
  3. import sys  
  4.   
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  6.         host='localhost'))  
  7. channel = connection.channel()  
  8.   
  9. channel.exchange_declare(exchange='direct_logs',  
  10.                          type='direct')  
  11.   
  12. result = channel.queue_declare(exclusive=True)  
  13. queue_name = result.method.queue  
  14.   
  15. severities = sys.argv[1:]  
  16. if not severities:  
  17.     print >> sys.stderr, "Usage: %s [info] [warning] [error]" % \  
  18.                          (sys.argv[0],)  
  19.     sys.exit(1)  
  20.   
  21. for severity in severities:  
  22.     channel.queue_bind(exchange='direct_logs',  
  23.                        queue=queue_name,  
  24.                        routing_key=severity)  
  25.   
  26. print ' [*] Waiting for logs. To exit press CTRL+C'  
  27.   
  28. def callback(ch, method, properties, body):  
  29.     print " [x] %r:%r" % (method.routing_key, body,)  
  30.   
  31. channel.basic_consume(callback,  
  32.                       queue=queue_name,  
  33.                       no_ack=True)  
  34.   
  35. channel.start_consuming()  

我們想把warning和error的log記錄到一個檔案中:

 

 

[python] view plain copy

  1. $ python receive_logs_direct.py warning error > logs_from_rabbit.log  

列印所有log到螢幕:

 

 

[python] view plain copy

  1. $ python receive_logs_direct.py info warning error  
  2.  [*] Waiting for logs. To exit press CTRL+C  

 

 

使用主題進行訊息分發

 

 

http://www.rabbitmq.com/tutorials/tutorial-five-Python.html

 

上面實現了一個簡單的日誌系統。Consumer可以監聽不同severity的log。但是,這也是它之所以叫做簡單日誌系統的原因,因為是僅僅能夠通過severity設定。不支援更多的標準。

        比如syslog unix的日誌工具,它可以通過severity (info/warn/crit...) 和模組(auth/cron/kern...)。這可能更是我們想要的:我們可以僅僅需要cron模組的log。

        為了實現類似的功能,我們需要用到topic exchange。

 

Topic exchange

 

 

        對於Message的routing_key是有限制的,不能使任意的。格式是以點號“."分割的字元表。比如:"stock.usd.nyse", "nyse.vmw", "quick.orange.rabbit"。你可以放任意的key在routing_key中,當然最長不能超過255 bytes。

        對於routing_key,有兩個特殊字元(在正規表示式裡叫元字元):

  • * (星號) 代表任意 一個單詞
  • # (hash) 0個或者多個單詞

        請看下面一個例子:

     Producer傳送訊息時需要設定routing_key,routing_key包含三個單詞和兩個點號。第一個key是描述了celerity(靈巧,敏捷),第二個是colour(色彩),第三個是species(物種):"<celerity>.<colour>.<species>"。

     在這裡我們建立了兩個繫結: Q1 的binding key 是"*.orange.*"; Q2 是  "*.*.rabbit" 和 "lazy.#":

  • Q1 感興趣所有orange顏色的動物
  • Q2 感興趣所有的rabbits和所有的lazy的

     比如routing_key是 "quick.orange.rabbit"將會傳送到Q1和Q2中。訊息"lazy.orange.elephant" 也會傳送到Q1和Q2。但是"quick.orange.fox" 會傳送到Q1;"lazy.brown.fox"會傳送到Q2。"lazy.pink.rabbit" 也會傳送到Q2,但是儘管兩個routing_key都匹配,它也只是傳送一次。"quick.brown.fox" 會被丟棄。

     如果傳送的單詞不是3個呢? 答案要看情況,因為#是可以匹配0個或任意個單詞。比如"orange" or "quick.orange.male.rabbit",它們會被丟棄。如果是lazy那麼就會進入Q2。類似的還有 "lazy.orange.male.rabbit",儘管它包含四個單詞。

Topic exchange和其他exchange

由於有"*" (star) and "#" (hash), Topic exchange 非常強大並且可以轉化為其他的exchange:

    如果binding_key 是 "#" - 它會接收所有的Message,不管routing_key是什麼,就像是fanout exchange。

    如果 "*" (star) and "#" (hash) 沒有被使用,那麼topic exchange就變成了direct exchange。

 

程式碼實現

 

 

     現在我們要refine我們上篇的日誌系統。routing keys 有兩個部分: "<facility>.<severity>"。

The code for emit_log_topic.py:

 

[python] view plain copy

  1. #!/usr/bin/env python  
  2. import pika  
  3. import sys  
  4.   
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  6.         host='localhost'))  
  7. channel = connection.channel()  
  8.   
  9. channel.exchange_declare(exchange='topic_logs',  
  10.                          type='topic')  
  11.   
  12. routing_key = sys.argv[1] if len(sys.argv) > 1 else 'anonymous.info'  
  13. message = ' '.join(sys.argv[2:]) or 'Hello World!'  
  14. channel.basic_publish(exchange='topic_logs',  
  15.                       routing_key=routing_key,  
  16.                       body=message)  
  17. print " [x] Sent %r:%r" % (routing_key, message)  
  18. connection.close()  


The code for receive_logs_topic.py:

 

 

[python] view plain copy

  1. #!/usr/bin/env python  
  2. import pika  
  3. import sys  
  4.   
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  6.         host='localhost'))  
  7. channel = connection.channel()  
  8.   
  9. channel.exchange_declare(exchange='topic_logs',  
  10.                          type='topic')  
  11.   
  12. result = channel.queue_declare(exclusive=True)  
  13. queue_name = result.method.queue  
  14.   
  15. binding_keys = sys.argv[1:]  
  16. if not binding_keys:  
  17.     print >> sys.stderr, "Usage: %s [binding_key]..." % (sys.argv[0],)  
  18.     sys.exit(1)  
  19.   
  20. for binding_key in binding_keys:  
  21.     channel.queue_bind(exchange='topic_logs',  
  22.                        queue=queue_name,  
  23.                        routing_key=binding_key)  
  24.   
  25. print ' [*] Waiting for logs. To exit press CTRL+C'  
  26.   
  27. def callback(ch, method, properties, body):  
  28.     print " [x] %r:%r" % (method.routing_key, body,)  
  29.   
  30. channel.basic_consume(callback,  
  31.                       queue=queue_name,  
  32.                       no_ack=True)  
  33.   
  34. channel.start_consuming()  

 

執行和結果

 

接收所有的log:

 

[python] view plain copy

  1. python receive_logs_topic.py "#"  

接收所有kern facility的log:

 

 

 

 

[python] view plain copy

  1. python receive_logs_topic.py "kern.*"  

僅僅接收critical的log:

 

 

[python] view plain copy

  1. python receive_logs_topic.py "*.critical"  

可以建立多個繫結:

 

 

[python] view plain copy

  1. python receive_logs_topic.py "kern.*" "*.critical"  

Producer產生一個log:"kern.critical" type:

 

 

[python] view plain copy

  1. python emit_log_topic.py "kern.critical" "A critical kernel error"  


課後思考題:

 

  • Will "*" binding catch a message sent with an empty routing key?
  • Will "#.*" catch a message with a string ".." as a key? Will it catch a message with a single word key?
  • How different is "a.*.#" from "a.#"?

 

適用於雲端計算叢集的遠端呼叫(RPC)

 

 

http://www.rabbitmq.com/tutorials/tutorial-six-Python.html

        在雲端計算環境中,很多時候需要用它其他機器的計算資源,我們有可能會在接收到Message進行處理時,會把一部分計算任務分配到其他節點來完成。那麼,RabbitMQ如何使用RPC呢?在本篇文章中,我們將會通過其它節點求來斐波納契完成示例。


客戶端介面 Client interface

 

        為了展示一個RPC服務是如何使用的,我們將建立一段很簡單的客戶端class。 它將會向外提供名字為call的函式,這個call會傳送RPC請求並且阻塞知道收到RPC運算的結果。程式碼如下:

 

[python] view plain copy

  1. fibonacci_rpc = FibonacciRpcClient()  
  2. result = fibonacci_rpc.call(4)  
  3. print "fib(4) is %r" % (result,)  

 

回撥函式佇列 Callback queue

 

        總體來說,在RabbitMQ進行RPC遠端呼叫是比較容易的。client傳送請求的Message然後server返回響應結果。為了收到響應client在publish message時需要提供一個”callback“(回撥)的queue地址。code如下:

 

[python] view plain copy

  1. result = channel.queue_declare(exclusive=True)  
  2. callback_queue = result.method.queue  
  3.   
  4. channel.basic_publish(exchange='',  
  5.                       routing_key='rpc_queue',  
  6.                       properties=pika.BasicProperties(  
  7.                             reply_to = callback_queue,  
  8.                             ),  
  9.                       body=request)  
  10.   
  11. # ... and some code to read a response message from the callback_queue ...  

Message properties

 

AMQP 預定義了14個屬性。它們中的絕大多很少會用到。以下幾個是平時用的比較多的:

  • delivery_mode: 持久化一個Message(通過設定值為2)。其他任意值都是非持久化。請移步RabbitMQ訊息佇列(三):任務分發機制
  • content_type: 描述mime-type 的encoding。比如設定為JSON編碼:設定該property為application/json。
  • reply_to: 一般用來指明用於回撥的queue(Commonly used to name a callback queue)。
  • correlation_id: 在請求中關聯處理RPC響應(correlate RPC responses with requests)。


相關id Correlation id

 

       在上個小節裡,實現方法是對每個RPC請求都會建立一個callback queue。這是不高效的。幸運的是,在這裡有一個解決方法:為每個client建立唯一的callback queue。

       這又有其他問題了:收到響應後它無法確定是否是它的,因為所有的響應都寫到同一個queue了。上一小節的correlation_id在這種情況下就派上用場了:對於每個request,都設定唯一的一個值,在收到響應後,通過這個值就可以判斷是否是自己的響應。如果不是自己的響應,就不去處理。


總結

 

 

     工作流程:

  • 當客戶端啟動時,它建立了匿名的exclusive callback queue.
  • 客戶端的RPC請求時將同時設定兩個properties: reply_to設定為callback queue;correlation_id設定為每個request一個獨一無二的值.
  • 請求將被髮送到an rpc_queue queue.
  • RPC端或者說server一直在等待那個queue的請求。當請求到達時,它將通過在reply_to指定的queue回覆一個message給client。
  • client一直等待callback queue的資料。當message到達時,它將檢查correlation_id的值,如果值和它request傳送時的一致那麼就將返回響應。

 

最終實現

 

 

The code for rpc_server.py:

 

[python] view plain copy

  1. #!/usr/bin/env python  
  2. import pika  
  3.   
  4. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  5.         host='localhost'))  
  6.   
  7. channel = connection.channel()  
  8.   
  9. channel.queue_declare(queue='rpc_queue')  
  10.   
  11. def fib(n):  
  12.     if n == 0:  
  13.         return 0  
  14.     elif n == 1:  
  15.         return 1  
  16.     else:  
  17.         return fib(n-1) + fib(n-2)  
  18.   
  19. def on_request(ch, method, props, body):  
  20.     n = int(body)  
  21.   
  22.     print " [.] fib(%s)"  % (n,)  
  23.     response = fib(n)  
  24.   
  25.     ch.basic_publish(exchange='',  
  26.                      routing_key=props.reply_to,  
  27.                      properties=pika.BasicProperties(correlation_id = \  
  28.                                                      props.correlation_id),  
  29.                      body=str(response))  
  30.     ch.basic_ack(delivery_tag = method.delivery_tag)  
  31.   
  32. channel.basic_qos(prefetch_count=1)  
  33. channel.basic_consume(on_request, queue='rpc_queue')  
  34.   
  35. print " [x] Awaiting RPC requests"  
  36. channel.start_consuming()  


The server code is rather straightforward:

 

  • (4) As usual we start by establishing the connection and declaring the queue.
  • (11) We declare our fibonacci function. It assumes only valid positive integer input. (Don't expect this one to work for big numbers, it's probably the slowest recursive implementation possible).
  • (19) We declare a callback for basic_consume, the core of the RPC server. It's executed when the request is received. It does the work and sends the response back.
  • (32) We might want to run more than one server process. In order to spread the load equally over multiple servers we need to set theprefetch_count setting.

The code for rpc_client.py:

 

[python] view plain copy

  1. #!/usr/bin/env python  
  2. import pika  
  3. import uuid  
  4.   
  5. class FibonacciRpcClient(object):  
  6.     def __init__(self):  
  7.         self.connection = pika.BlockingConnection(pika.ConnectionParameters(  
  8.                 host='localhost'))  
  9.   
  10.         self.channel = self.connection.channel()  
  11.   
  12.         result = self.channel.queue_declare(exclusive=True)  
  13.         self.callback_queue = result.method.queue  
  14.   
  15.         self.channel.basic_consume(self.on_response, no_ack=True,  
  16.                                    queue=self.callback_queue)  
  17.   
  18.     def on_response(self, ch, method, props, body):  
  19.         if self.corr_id == props.correlation_id:  
  20.             self.response = body  
  21.   
  22.     def call(self, n):  
  23.         self.response = None  
  24.         self.corr_id = str(uuid.uuid4())  
  25.         self.channel.basic_publish(exchange='',  
  26.                                    routing_key='rpc_queue',  
  27.                                    properties=pika.BasicProperties(  
  28.                                          reply_to = self.callback_queue,  
  29.                                          correlation_id = self.corr_id,  
  30.                                          ),  
  31.                                    body=str(n))  
  32.         while self.response is None:  
  33.             self.connection.process_data_events()  
  34.         return int(self.response)  
  35.   
  36. fibonacci_rpc = FibonacciRpcClient()  
  37.   
  38. print " [x] Requesting fib(30)"  
  39. response = fibonacci_rpc.call(30)  
  40. print " [.] Got %r" % (response,)  


The client code is slightly more involved:

 

  • (7) We establish a connection, channel and declare an exclusive 'callback' queue for replies.
  • (16) We subscribe to the 'callback' queue, so that we can receive RPC responses.
  • (18) The 'on_response' callback executed on every response is doing a very simple job, for every response message it checks if thecorrelation_id is the one we're looking for. If so, it saves the response inself.response and breaks the consuming loop.
  • (23) Next, we define our main call method - it does the actual RPC request.
  • (24) In this method, first we generate a unique correlation_id number and save it - the 'on_response' callback function will use this value to catch the appropriate response.
  • (25) Next, we publish the request message, with two properties: reply_to and correlation_id.
  • (32) At this point we can sit back and wait until the proper response arrives.
  • (33) And finally we return the response back to the user.

開始rpc_server.py:

[python] view plain copy

  1. $ python rpc_server.py  
  2.  [x] Awaiting RPC requests  

通過client來請求fibonacci數:

 

 

[python] view plain copy

  1. $ python rpc_client.py  
  2.  [x] Requesting fib(30)  

      現在這個設計並不是唯一的,但是這個實現有以下優勢:

 

 

 

  • 如何RPC server太慢,你可以擴充套件它:啟動另外一個RPC server。
  • 在client端, 無所進行加鎖能同步操作,他所作的就是傳送請求等待響應。

      我們的code還是挺簡單的,並沒有嘗試去解決更復雜和重要的問題,比如:

  • 如果沒有server在執行,client需要怎麼做?
  • RPC應該設定超時機制嗎?
  • 如果server執行出錯並且丟擲了異常,需要將這個問題轉發到client嗎?
  • 需要邊界檢查嗎?

 

RabbitMQ訊息佇列的小夥伴: ProtoBuf(Google Protocol Buffer)

 

 

     什麼是ProtoBuf?

     一種輕便高效的結構化資料儲存格式,可以用於結構化資料序列化,或者說序列化。它很適合做資料儲存或 RPC 資料交換格式。可用於通訊協議、資料儲存等領域的語言無關、平臺無關、可擴充套件的序列化結構資料格式。目前提供了 C++、JavaPython 三種語言的 API。

     它可以作為RabbitMQ的Message的資料格式進行傳輸,由於是結構化的資料,這樣就極大的方便了Consumer的資料高效處理。當然了你可能說使用XML不也可以嗎?與XML相比,ProtoBuf有以下優勢:

  1. 簡單
  2. size小了3-10倍
  3. 速度快樂20-100倍
  4. 易於程式設計
  5. 減小了語義的歧義

       當然了,的確還有很多類似的技術,比如JSON,Thrift等等,和他們相比,ProtoBuf的優勢或者劣勢在哪裡?簡單說來,ProtoBuf就是簡單,快。以測試為證:專案 thrift-protobuf-compare 比較了這些類似的技術,下圖 顯示了該專案的一項測試結果。

在佔用空間上的效能比較:

由此可見,ProtoBuf具有速度和空間的優勢,使得它現在應用非常廣泛。比如Hadoop就使用了它。

更多資訊,請閱 http://www.ibm.com/developerworks/cn/Linux/l-cn-gpb/。

 

Publisher的訊息確認機制

 

       在前面的文章中提到了queue和consumer之間的訊息確認機制:通過設定ack。那麼Publisher能不到知道他post的Message有沒有到達queue,甚至更近一步,是否被某個Consumer處理呢?畢竟對於一些非常重要的資料,可能Publisher需要確認某個訊息已經被正確處理。

      在我們的系統中,我們沒有是實現這種確認,也就是說,不管Message是否被Consume了,Publisher不會去care。他只是將自己的狀態publish給上層,由上層的邏輯去處理。如果Message沒有被正確處理,可能會導致某些狀態丟失。但是由於提供了其他強制重新整理全部狀態的機制,因此這種異常情況的影響也就可以忽略不計了。

     對於某些非同步操作,比如客戶端需要建立一個FileSystem,這個可能需要比較長的時間,甚至要數秒鐘。這時候通過RPC可以解決這個問題。因此也就不存在Publisher端的確認機制了。

     那麼,有沒有一種機制能保證Publisher能夠感知它的Message有沒有被處理的?答案肯定的。在這裡感謝笑天居士同學:他在我的《RabbitMQ訊息佇列(三):任務分發機制》文後留言一起討論了問題,而且也查詢了一些資料。在這裡我整理了一下他轉載和一篇文章和原創的一篇文章。銜接已經附後。

事務機制 VS Publisher Confirm

 

       如果採用標準的 AMQP 協議,則唯一能夠保證訊息不會丟失的方式是利用事務機制 -- 令 channel 處於 transactional 模式、向其 publish 訊息、執行 commit 動作。在這種方式下,事務機制會帶來大量的多餘開銷,並會導致吞吐量下降 250% 。為了補救事務帶來的問題,引入了 confirmation 機制(即 Publisher Confirm)。

     為了使能 confirm 機制,client 首先要傳送 confirm.select 方法幀。取決於是否設定了 no-wait 屬性,broker 會相應的判定是否以 confirm.select-ok 進行應答。一旦在 channel 上使用 confirm.select方法,channel 就將處於 confirm 模式。處於 transactional 模式的 channel 不能再被設定成 confirm 模式,反之亦然。
    一旦 channel 處於 confirm 模式,broker 和 client 都將啟動訊息計數(以 confirm.select 為基礎從 1 開始計數)。broker 會在處理完訊息後,在當前 channel 上通過傳送 basic.ack 的方式對其進行 confirm 。delivery-tag 域的值標識了被 confirm 訊息的序列號。broker 也可以通過設定 basic.ack 中的 multiple 域來表明到指定序列號為止的所有訊息都已被 broker 正確的處理了。

       在異常情況中,broker 將無法成功處理相應的訊息,此時 broker 將傳送 basic.nack 來代替 basic.ack 。在這個情形下,basic.nack 中各域值的含義與 basic.ack 中相應各域含義是相同的,同時 requeue 域的值應該被忽略。通過 nack 一或多條訊息,broker 表明自身無法對相應訊息完成處理,並拒絕為這些訊息的處理負責。在這種情況下,client 可以選擇將訊息 re-publish 。

      在 channel 被設定成 confirm 模式之後,所有被 publish 的後續訊息都將被 confirm(即 ack) 或者被 nack 一次。但是沒有對訊息被 confirm 的快慢做任何保證,並且同一條訊息不會既被 confirm 又被 nack 。

 

訊息在什麼時候確認

 

broker 將在下面的情況中對訊息進行 confirm :

  • broker 發現當前訊息無法被路由到指定的 queues 中(如果設定了 mandatory 屬性,則 broker 會先傳送 basic.return)
  • 非持久屬性的訊息到達了其所應該到達的所有 queue 中(和映象 queue 中)
  • 持久訊息到達了其所應該到達的所有 queue 中(和映象 queue 中),並被持久化到了磁碟(被 fsync)
  • 持久訊息從其所在的所有 queue 中被 consume 了(如果必要則會被 acknowledge)

 

broker 會丟失持久化訊息,如果 broker 在將上述訊息寫入磁碟前異常。在一定條件下,這種情況會導致 broker 以一種奇怪的方式執行。例如,考慮下述情景:

   1.  一個 client 將持久訊息 publish 到持久 queue 中
   2.  另一個 client 從 queue 中 consume 訊息(注意:該訊息具有持久屬性,並且 queue 是持久化的),當尚未對其進行 ack
   3.  broker 異常重啟
   4.  client 重連並開始 consume 訊息

   在上述情景下,client 有理由認為訊息需要被(broker)重新 deliver 。但這並非事實:重啟(有可能)會令 broker 丟失訊息。為了確保永續性,client 應該使用 confirm 機制。如果 publisher 使用的 channel 被設定為 confirm 模式,publisher 將不會收到已丟失訊息的 ack(這是因為 consumer 沒有對訊息進行 ack ,同時該訊息也未被寫入磁碟)。

 

程式設計實現

 

 

首先要區別AMQP協議mandatory和immediate標誌位的作用。

mandatory和immediate是AMQP協議中basic.pulish方法中的兩個標誌位,它們都有當訊息傳遞過程中不可達目的地時將訊息返回給生產者的功能。具體區別在於:
1. mandatory標誌位
當mandatory標誌位設定為true時,如果exchange根據自身型別和訊息routeKey無法找到一個符合條件的queue,那麼會呼叫basic.return方法將訊息返還給生產者;當mandatory設為false時,出現上述情形broker會直接將訊息扔掉。
2. immediate標誌位
當immediate標誌位設定為true時,如果exchange在將訊息route到queue(s)時發現對應的queue上沒有消費者,那麼這條訊息不會放入佇列中。當與訊息routeKey關聯的所有queue(一個或多個)都沒有消費者時,該訊息會通過basic.return方法返還給生產者。

具體的程式碼參考請參考參考資料1.

 

參考資料:

1. http://blog.csdn.NET/jiao_fuyou/article/details/21594205

2. http://blog.csdn.net/jiao_fuyou/article/details/21594947

3.  http://my.oschina.Net/moooofly/blog/142095

 

 

 

 

相關文章