InfiniBand 網路

roominess發表於2012-05-08

 當前光纖通道和乙太網已經能夠支援 10Gbps和更高的速率。因此,在計算機中的主機 I/O匯流排必須能夠以同樣的速率傳送資料。然而,與所有的並行匯流排一樣,PCI匯流排限制了網路速度的進一步提高  事實上,基於網路架構的 PCI 匯流排頻寬要達到雙向 2 Gbps 都很困難

       InfiniBand代表一種新興的 I/O技術,它很有可能在高階伺服器中取代PCI匯流排。作為一種介質,InfiniBand定義了各種銅電纜和光導纖維線纜,它為銅纜和光纜指定的最大長度分別是  17m     10 000m也可以在使用導軌的線路板上直接實現InfiniBand

       InfiniBand 網路中的端點稱作通道介面卡lnfiniBand使用兩種通道介面卡:主機通道介面卡 (HCAHost  Channel Adapter)目標通道介面卡 (TCATarget ChannelAdapter)

       HCAInfiniBand網路和連線到CPURAM的系統匯流排之間起橋樑作用。     TCAInfiniBand網路和通過SCSI、光纖通道或乙太網連線的外部裝置之間起連線作 用。與PCI 比較,HCA對應於PCI橋接晶片,TCA對應於光纖通道主機適配卡或乙太網卡。

      

       InfiniBand有可能完全改變伺服器和儲存裝置的體系結構,需要考慮的是,網路卡和主機匯流排適配卡可能被放置在 100m距離之外。這就意味著,配有CPU和記憶體的母板、網路卡、主機匯流排適配卡和儲存裝置都作為物理上分離的非耦合的裝置單獨安裝。這些裝置都通過一個網路連線在一起。現在還不明朗,TCA 連線儲存裝置、光纖通道或乙太網這 3種傳輸技術中的哪一種將會在這一領域中占主導地位。

       智慧磁碟子系統的功能正在變得越來越強大,而 InfiniBand 有助於在伺服器和減少了 CPU負荷的儲存裝置之間快速通訊。因此至少在理論上,諸如檔案系統的快取和共享磁碟檔案系統的鎖定同步這類子功能可以直接實現在磁碟子系統中或特別的處理機上。

 

       InfiniBand發展的初衷是把伺服器中的匯流排網路化。所以 InfiniBand除了具有很強的網路效能以外還直接繼承了匯流排的高頻寬和低時延。人們熟知的在匯流排技術中採用的DMA(Direct Memory Access,直接記憶體訪問)技術在InfiniBand  RDMA(RemoteDirect Memory Access,遠地直接記憶體訪問)的形式得到了繼承。

     RDMA 通過網路把資料直接傳入計算機的儲存區域將資料從本地系統快速移動到遠端系統的儲存器中。它消除了外部儲存器複製和文字交換操作,因而能騰出匯流排空間和 CPU週期用於改進應用系統效能。日前通用的做法是由系統先對傳入的資訊進行分析,然後再儲存到正確的區域。

       當一個應用執行RDMA讀或寫請求時,不執行任何資料複製。在不需要任何核心記憶體參與的條件下,RDMA 請求從執行在使用者空間中的應用中傳送到本地網路卡,然後經過網路傳送到遠端網路卡。RDMA 操作使應用可以從一個遠端應用的記憶體中讀資料或向這個記憶體寫資料。用於操作的遠端虛擬記憶體地址包含在RDMA資訊中。遠端應用除了為其本地網路卡註冊相關記憶體緩衝區外,不需要做其他任何事情。遠端節點中的 CPU完全不參與輸入的RDMA操作。這項技術在網路卡中實施可靠的資料傳輸協議,並通過減少對頻寬和處理器的開銷降低了時延。

       這種優化了的效能是通過在網路卡的硬體中支援零複製技術和核心記憶體旁路技術實現的。零複製技術使網路卡可以直接與應用記憶體相互傳輸資料,從而消除了在應用記憶體與核心記憶體之間複製資料的需要。核心記憶體旁路技術使應用無需執行核心記憶體呼叫就可向網路卡傳送命令。在不需要任何核心記憶體參與的條件下,RDMA 請求從使用者空間傳送到本地網路卡,並通過網路傳送給遠端網路卡,這就減少了在處理網路傳輸流時核心記憶體空間與使用者空間之間的環境切換次數,從而降低了時延。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/15880878/viewspace-723019/,如需轉載,請註明出處,否則將追究法律責任。

相關文章