Infiniband簡介_轉摘

wisdomone1發表於2010-03-31
InfiniBand架構是一種支援多併發連結的“轉換線纜”技術,在這種技術中,每種連結都可以達到2.5
Gbps的執行速度。這種架構在一個連結的時候速度是500 MB/秒,四個連結的時候速度是2 GB/秒,12個連結的時候速度可以達到6 GB
/秒。InfiniBand技術不是用於一般網路連線的,它的主要設計目的是針對伺服器端的連線問題的。因此,InfiniBand技術 將會被應用於服務
器與伺服器(比如複製,分散式工作等),伺服器和儲存裝置(比如SAN和直接儲存附件)以及伺服器和網路 之間(比如LAN, WANs和the
Internet)的通訊。 我們為什麼需要InfiniBand?
採用Intel架構的處理器的輸入/輸出效能會受到PCI或者PCI-X匯流排的限制。匯流排的吞吐能力是由匯流排時鐘決定的(比如
33.3MHz,66.6MHz 以及133.3MHz)和匯流排的寬度(比如32位或者64位)。在最通常的配置中,PCI匯流排速度被限制在500
MB /秒,而PCI-X匯流排速度被限制在1
GB/秒。這種速度上的限制制約了伺服器和儲存裝置、網路節點以及其他伺服器通訊的能力。在InfiniBand的技術構想中,InfiniBand直接
整合到系統板內,並且直接和CPU以及記憶體子系統互動。但是,在短期內,InfiniBand 支援將由PCI和PCI-X介面卡完成;這
樣,InfiniBand在最初將會受到匯流排的制約。在2002年年底,InfiniBand技術將會完全被整合在Intel伺服器供應商以及Sun生產
的伺服器中(80%的可能性) 誰在倡導InfiniBand?
InfiniBand是由InfiniBand行業協會所倡導的。協會的主要成員是:康柏,戴爾,惠普,IBM,Intel,微軟和Sun。從歷史的角度
看,InfiniBand代表了兩種計算潮流的融合:下一代I/O(NGIO)和未來的I-O(FIO)。大部分NGIO和FIO潮流的成員都加入了
InfiniBand陣營。 InfiniBand是純硬體的嗎?
不。InfiniBand的成功還需要軟體--包括很多不同的層。這種技術架構和架構上的代理 (伺服器,儲存裝置,通訊裝置,switche以及其他的一
些裝置)都需要軟體管理。應用軟體也必須適應這種架構。作業系統也必須進 行調整以和晶片組進行最最佳化的通訊。我們認為InfiniBand的相關軟體的發
展將會成為InfiniBand產品應用的一個瓶頸。但是,到2005年,80%大、中型企業都會有在資料中心環境下的正式的InfiniBand產品。
Windows 2000支援InfiniBand嗎?
既支援也不支援。在InfiniBand的試製,測試階段,對InfiniBand的支援是由裝置供應商 的驅動來提供的,而不是直接由作業系統來支援。而
且,微軟沒有時間把對InfiniBand的支援加入到它的 Windows
2000中。不過微軟有可能在2002年第二季度把這種支援新增進來。(60%的可能性) InfiniBand會取代線纜通道嗎?
現在還沒有計劃。就象InfiniBand技術完全被整合到伺服器的軟體和硬體中需要時間一樣,它被完全整合到儲存裝置和SAN中也需要時間。2003
年,90%的InfiniBand伺服器會採用InfiniBand-線纜通道、InfiniBand-千兆乙太網或者InfiniBand-
SCSI橋的方式連線網路上的外接儲存。(90%的可能性)。 InfiniBand會取代千兆(或者更快的)乙太網嗎?
對這個問題的回答是:不會。乙太網是應用於高層網路通訊(比如TCP/IP)的技術,而InfiniBand是用於低層輸入/輸出通訊的技術。即使乙太網
達到甚至超過了InfiniBand的速度,高層網路通訊的特點使得它也不能夠成為適合伺服器端輸入/輸出的解決方案。
總結:InfiniBand架構肩負著改善伺服器端輸入/輸出效能的使命。但是,InfiniBand不僅僅是晶片和硬體。為了發揮應有的作用,硬體和軟
件必須充分在作業系統,管理層以及應用層整合起來。按照技術激程式度劃分,“A型別”的企業將會在2002年第二季度考慮小批次生產InfiniBand
產品,而沒有那麼激進的企業可能會等到2003年第一季度或者更遲
  如果你還沒有關注InfiniBand,那要準備好應付鋪天蓋地的相關資訊,甚至是產品。經過
多年的醞釀,和使其成為規範的努力,以及實驗室的開發。InfiniBand即將橫空出世。不管你最終採 用InfiniBand,或是放棄,亦或是等等看
看,你都要了解這種用於資料中心的新型互聯技術。
  InfiniBand產品正逐步進入市場,預計在2003年將有大批產品上市。由康柏、戴爾、
惠普、IBM、英特爾、微軟和SUN公司於1999年建立的InfiniBand行業協會(IBTA),現在有180多加公司參加。這些業界巨人也組成了
籌劃指導委員會。自從2000年1月以來,共吸收了3億美元的風險資金,很明顯,InfiniBand是業界推出的重大專案
  儲存網路界的許多大公司認為,InfiniBand將會作為PCI匯流排的替代品,首先出現在服
務器內部。這樣就很容易解釋為什麼他們對InfiniBand互聯不熱心。但是,沒有什麼事情是必然的。隨著啟動的一系列工作,InfiniBand將會
很容易地進入儲存網路。如果InfiniBand確實作為PCI的替代品用於資料中心,則會出現這樣的情況,或者InfiniBand證明自己同樣適用網
絡傳輸,或者需要進一步的開發。
  這就是要關注該技術的原因。或許需要投入時間、資金,並重新規劃,但是,這會潛在地改進公司的互聯體系結構。
  InfiniBand如何工作
  InfiniBand是一個統一的互聯結構,既可以處理儲存I/O、網路I/O,也能夠處理進
程間通訊(IPC)。它可以將磁碟陣列、SANs、LANs、伺服器和叢集伺服器進行互聯,也可以連線外部網路(比如WAN、VPN、網際網路)。設計
InfiniBand的目的主要是用於企業資料中心,大型的或小型的。目標主要是實現高的可靠性、可用性、可擴充套件性和高的效能。InfiniBand可以
在相對短的距離內提供高頻寬、低延遲的傳輸,而且在單個或多個網際網路絡中支援冗餘的I/O通道,因此能保持資料中心在區域性故障時仍能運轉。
  如果深入理解,你會發現InfiniBand與現存的I/O技術在許多重要的方面都不相同。不
像PCI、PCI-X、 IDE/ATA 和
SCSI那樣共享匯流排,因此沒有相關的電子限制、仲裁衝突和記憶體一致性問題。相反,InfiniBand在交換式網際網路絡上,採用點到點的、基於通道的消
息轉發模型,同時,網路能夠為兩個不同的節點提供多種可能的通道。
  這些方面,InfiniBand更像乙太網,而乙太網構成LANs、WANs和網際網路的基礎。
InfiniBand和乙太網都是拓撲獨立――其拓撲結構依賴於交換機和路由器在源和目的之間轉發資料分組,而不是靠具體的匯流排和環結構。像乙太網一
樣,InfiniBand能夠在網路部件故障時重新路由分組,分組大小也類似。InfiniBand的分組大小從256b到4KB,單個訊息(攜帶I/O
處理的一系列資料分組)可以達到2GB。
  乙太網跨越全球,InfiniBand則不同,其主要用於只有幾間機房的資料中心,分佈於校園
內或者位於城市區域性。最大距離很大程度上取決於纜線型別(銅線或光纖)、連線的質量、資料速率和收發器。如果是光纖、單模的收發器和基本資料速率的情況
下,InfiniBand的最大距離大約是10公里。
  如同乙太網一樣使用交換機和路由器,
InfiniBand在理論上能夠跨越更遠的距離,儘管如此,在實際應用中距離要受到更多的限制。為了確保資料分組的可靠傳輸,InfiniBand具備
諸如反應超時、流控等特點,以防止阻塞造成的分組丟失。延長InfiniBand的距離將降低這些特徵的有效性,因為延遲超過了合理的範圍。
  為了超越資料中心的範圍,其它I/O技術必須解決長距離的問題。InfiniBand廠商透過
能夠連線到乙太網和光纖通道網路的裝置來解決這個問題(光纖通道的最大距離大約為10公里,因此橋接裝置使得InfiniBand能夠與現存的用光纖通道
連線的校園網路和都會網路絡的分散式資料中心相相容)。
  更高的速度
  InfiniBand的基本頻寬是2.5Gb/s,這是InfiniBand
1.x。InfiniBand是全雙工的,因此在兩個方向上的理論最大頻寬都是2.5Gb/s,總計5Gb/s。與此相反,PCI是半雙工,因此32位、
33MHz的PCI匯流排單個方向上能達到的理論最大頻寬是1Gb/s,64位、133MHz的PCI-X匯流排能達到8.5Gb/s,仍然是半雙工。當然,
任何一種匯流排的實際吞吐量從來沒有達到理論最大值。
  如果要獲取比InfiniBand 1.x更多的頻寬,只要增加更多纜線就行。InfiniBand 1.0規範於2000年10月完成,支援一個通道內多個連線的網路,資料速率可提高4倍(10Gb/s)和12倍(30Gb/s),也是雙向的。
  InfiniBand是在序列鏈路上實現超高速率的,因此電纜和聯結器相對並行I/O介面
PCI、IDE/ATA、SCSI和IEEE-1284來說,介面小也便宜。並行鏈路有一個固有的優勢,因為它的多個纜線相當於高速公路上的多個車道,但
現代的I/O收發器晶片使序列鏈路達到更高的資料速率,並且價格便宜。這就是為什麼最新的技術――InfiniBand、IEEE-1394、序列
ATA、序列連線SCSI、USB採用序列I/O而不是並行I/O。
  InfiniBand的擴充套件性非常高,在一個子網內可支援上萬個節點,而每個網路中可有幾千個
子網,每個安裝的系統中可以有多個網路結構。InfiniBand交換機透過子網路由分組,InfiniBand路由器將多個子網連線在一起。相對以太
網,InfiniBand可以更加分散地進行管理,每個子網內有一個管理器,其在路由分組、對映網路拓撲、在網路內提供多個鏈路、監視效能方面起決定性的
作用。子網管理器也能保證在特別通道內的頻寬,併為不同優先權的資料流提供不同級別的服務。子網並不一定是一個單獨的裝置,它可以是內建於交換機的智慧部
件。
  虛擬高速公路
  為了保證頻寬和不同級別的服務,子網管理器使用虛擬通道,其類似於高速公路的多個車道。通道是虛擬的,而不是實際存在的,因為它不是由實際的纜線組成 的。透過使用位元組位元組,並根據不同的優先權,同一對纜線可攜帶不同分組的片斷。
  開發中的標準:
  產品 物理I/O 主要應用 最大頻寬 最大距離
  InfiniBand 1x 序列儲存
  IPC 網路 2.5Gb/s 10公里
  InfiniBand 4x 序列-多鏈路 儲存、IPC、網路 10Gb/s 10公里
  InfiniBand 12x 序列-多鏈路 儲存、IPC、網路 30Gb/s 10公里
  光纖通道 序列儲存
  IPC 網路 2Gb/s 10公里
  Ultra2 SCSI 16位並行 儲存 0.6Gb/s 12米
  Ultra3 SCSI1 6位並行 儲存 1.2Gb/s 12米
  IDE/Ultra ATA 100 32位並行 儲存 0.8Gb/s 1米
  IEEE-1394a (FireWire) 序列 儲存 0.4Gb/s 4.5米
  序列 ATA 1.0 序列 儲存 1.5Gb/s 1米
  序列連線SCSI 序列 儲存 未定義 未定義
  PCI 2.2 (33/66MHz) 32/64位並行 底板 1 / 2 Gb/s 主機板
  PCI-X 1.0 (133MHz) 64位並行 底板 8.5Gb/s 主機板
  PCI-X 2.0 (DDR-QDR) 64位並行 底板 34 Gb/s 主機板
  InfiniBand
1.0定義了16個虛擬通道,0到15通道。通道15預留給管理使用,其它通道用於資料傳輸。一個通道專用於管理可以防止流量擁塞時妨礙網路的正常管理。
比如,網路隨時準備改變其拓撲結構。InfiniBand裝置是熱插拔的,從網路中拔出裝置時要求網路迅速重新配置拓撲對映。子網管理器使用通道15來查
詢交換機、路由器和終端節點其有關配置的改變。
  除了資料虛擬通道外預留虛擬管理通道,這就是帶內管理。InfiniBand也提供帶外管理的選項。在InfiniBand的底板配置中,管理訊號使 用獨立於資料通道的特殊通道。底板配置更多用於伺服器內和儲存子系統,同樣地,PCI和PCI-X的底板也位於此。
  除了虛擬通道上直接傳輸,子網管理器也可以對兩個節點之間的點對點的通道調整並匹配資料速率。比如,如果一個伺服器有一個到網路的4倍的介面,而傳送 資料的目標儲存子系統只有1倍的介面,交換機能夠自動建立相容的1倍通道,而不丟失分組和阻止更高速率的資料傳輸。
  實現InfiniBand
  InfiniBand不是必須要取代現存的I/O技術。但會造成相關的爭論,因為其它的I/O
標準也有很多的支持者,而且許多公司已經對這種傳統的技術進行大量的投資。在計算機業界,每一種新技術的出現都傾向於將其它的技術規類於傳統的範疇。至少
在理論上,InfiniBand能與PCI、PCI-X、 SCSI、 光纖通道、IDE/ATA、序列 ATA、
IEEE-1394以及其它在資料中心存在I/O標準共存。相反,3GIO和HyperTransport是板級的互聯,而快速I/O和緻密PCI主要用
於內嵌式系統。
  為了與其它的I/O技術協同工作,InfiniBand需要能匹配物理介面和轉換通訊協議的橋
接介面卡。舉例來說,Adaptec正在測試能將InfiniBand連線到序列ATA和序列SCSI的磁碟介面。然而,不要假定你需要的橋接裝置已經存
在,並且經過實際工作的驗證、價格可行。
  另一個要考慮的是效能問題。連線兩種不同的I/O標準通常要增加資料通道的延遲。在最壞的情況
下,將InfiniBand網路引入到一個已經安裝多個不同技術組成的網路中,如果組織管理差,會降低其整體效能。InfiniBand的支持者聲稱理想
的解決方案是完整的InfiniBand體系結構。任何部件都可以直接連線到InfiniBand網路,可以使用最佳化的檔案協議,最好是使用直接訪問檔案
系統(DAFS)。
  DAFS獨立於傳輸,是基於NFS的共享式檔案訪問協議。它是最佳化過的,用於1到100臺機器的叢集伺服器環境中的I/O密集、CPU受限、面向檔案 的任務。典型的應用包括資料庫、web服務、e-mail和地理資訊系統 (GIS),當然也包括儲存應用。
  IT管理員感興趣的其它的與InfiniBand相關協議是:SCSI遠端直接記憶體訪問(RDMA)協議、共享資源協議(SRP)、IP over InfiniBand (IPoIB)、直接套節字協議(SDP)、遠端網路驅動介面規範(RNDIS)。
  SRP的開發在一些公司進展順利,比如,已經開發出早期版本並執行在Windows
2000上協議的Adaptec。OEM的廠商和合作夥伴正在測試beta系統。Adaptec認為SRP對於高效能的SANs會相當出眾,但必須解決多
廠商產品間的相容。最終版本的SRP可能取決於作業系統的驅動程式和伺服器的支援,預計在本年下半年或2003年上半年完成。
  IpoIB,將IP協議對映到InfiniBand,正在被IETF的一個工作組定義。IpoIB包括IPv4/IPv6的地址解析、IPv4 /IPv6的資料包的封裝、網路初始化、組播、廣播和管理資訊庫。預計在本年下半年或2003年上半年完成。
  SDP試圖解決其它協議的幾個缺陷,特別是相對高的CPU和記憶體頻寬的利用率。SDP基於微軟
的Winsock
Direct協議,類似於TCP/IP,但最佳化後用於InfiniBand,以降低負荷。一個工作組在2000年下半年開始定義SDP,今年2月完成了
1.0規範。
  RNDIS是微軟開發的協議,用於基於通道的即插即用匯流排的網路I/O,比如USB和IEEE-1394。InfiniBand RNDIS 1.0規範即將完成。
  不要期望一夜成功
  儘管所有的廠商都大肆宣傳,市場分析人員也預計有良好前景,但不要期望InfiniBand在
一夜之間獲得成功,或者失敗。一方面,InfiniBand要求繼續投資於一個未經完全驗證的技術,特別是當今經濟正從衰退中恢復。儘管可能生產出更多的
InfiniBand產品,而不使現存的裝置過時,但獲得最大收益要求更廣泛地支援InfiniBand技術,因為InfiniBand技術利用大型交換
式網路和本地介面和協議。
  一些IT管理員可能會反對這種同時用於儲存、程式間通訊和網路傳輸的網路結構,儘管這是
InfiniBand的目的。將不同形式的通訊執行在不同的匯流排和網路上可以提供一定的冗餘,而InfiniBand也可以透過多個點到點的交換式網路同
樣提供冗餘。但他們認為互相分離的網路能夠防止儲存I/O同伺服器和網路通訊競爭頻寬。
  而另一方面的論點是,InfiniBand統一的網路結構可以簡化IT管理員的工作。一方面,
你不必保留不同形式的備份。連線伺服器的同一種電纜也可以同儲存系統協同工作,磁碟子系統可以在不同的子系統之間互換。頻寬的爭奪不大可能成為一個問題,
因為InfiniBand可以擴充套件的網路結構能提供足夠的頻寬,並且很容易增加。而其它的I/O技術,一旦定義了匯流排寬度和時脈頻率,其理論最大頻寬是固
定的,你不能僅僅透過插入纜線來增加更多的頻寬容量,但InfiniBand可以做到這一點。
  同樣,統一的、可以重新配置的網路結構能夠很容易地在儲存、網路通訊和IPC之間再分配頻寬,而不必關掉關鍵系統來更換硬體。
  應該說,InfiniBand的技術基礎是穩固的。當然,除了技術的原因,新的技術有時會因為這樣那樣的原因而出現故障。另外,不成熟的市場和高於期 望的費用使許多好的點子成為過眼煙雲。
  Infiniband的現狀和未來
  2006年11月13日在美國佛羅里達Tampa召開的一年兩次的巨型計算機博覽 會
(SC06)上公佈的世界前500名巨型機的排名中用於伺服器互聯的公開標準協議Infiniband的佔有率首次超過了私有協議Myrinet,而在所
有使用了Infiniband的巨型機中Voltaire又以絕對優勢佔了2/3。另外到今年六月為止的世界前500名巨型計算機排名中佔有率一直持續上
漲的千兆乙太網也首次下跌18%。至此經過3年多的較量,在高效能運算(HPC)領域伺服器網際網路絡的首選協議已經明確為Infiniband。在此想就
Infiniband的現狀和發展趨勢向各位讀者做一下介紹。
  Infiniband的特點:
  Infiniband協議的主要特點是高頻寬(現有產品的頻寬4xDDR
20Gbps,12x DDR 60Gbps, 4xSDR 10Gbps, 12xSDR
30Gbps、預計兩年後問世的QDR技術將會達到4xQDR 40Gbps,12x QDR
120Gbps)、低時延(交換機延時140ns、應用程式延時3μs、一年後的新的網路卡技術將使應用程式延時降低到1μs水平)、系統擴充套件性好(可輕鬆
實現完全無擁塞的數萬端裝置的Infiniband網路)。另外Infiniband標準支援RDMA(Remote Direct Memory
Access),使得在使用Infiniband構築伺服器、儲存器網路時比萬兆乙太網以及Fibre Channel具有更高的效能、效率和靈活性。
  Infiniband與RDMA:
  Infiniband發展的初衷是把伺服器中的匯流排給網路化。所以Infiniband除了具
有很強的網路效能以外還直接繼承了匯流排的高頻寬和低時延。大家熟知的在匯流排技術中採用的DMA(Direct Memory
Access)技術在Infiniband中以RDMA(Remote Direct Memory
Access)的形式得到了繼承。這也使Infiniband在與CPU、記憶體及儲存裝置的交流方面天然地優於萬兆乙太網以及Fibre
Channel。可以想象在用Infiniband構築的伺服器和儲存器網路中任意一個伺服器上的CPU可以輕鬆地透過RDMA去高速搬動其他伺服器中的
記憶體或儲存器中的資料塊,而這是Fibre Channel和萬兆乙太網所不可能做到的。
  Infiniband與其他協議的關係:
  作為匯流排的網路化,Infiniband有責任將其他進入伺服器的協議在Infiniband
的層面上整合並送入伺服器。基於這個目的,今天Volatire已經開發了IP到Infiniband的路由器以及Fibre
Channel到Infiniband的路由器。這樣一來客觀上就使得目前幾乎所有的網路協議都可以透過Infiniband網路整合到伺服器中去。這包
括Fibre Channel, IP/GbE, NAS,
iSCSI等等。另外2007年下半年Voltaire將推出萬兆乙太網到Infiniband的路由器。這裡有一個插曲:萬兆乙太網在其開發過程中考慮
過多種線纜形式。最後發現只有Infiniband的線纜和光纖可以滿足其要求。最後萬兆乙太網開發陣營直接採用了Infiniband線纜作為其物理連
接層。
  Infiniband在儲存中的地位:
  今天的Infiniband可以簡單地整合Fibre Channel
SAN、NAS以及iSCSI進入伺服器。事實上除了作為網路化匯流排把其他儲存協議整合進伺服器之外,Infiniband可以發揮更大的作用。儲存是內
存的延伸,具有RDMA功能的Infiniband應該成為儲存的主流協議。比較一下Infiniband和Fibre
Channel我們可以看到Infiniband的效能是Fibre Channel的5倍,Infiniband交換機的延遲是Fibre
Channel交換機的1/10。另外在構築連線所有伺服器和儲存器的高速網路時使用Infiniband Fabric可以省去Fiber
Channel Fabric,從而給客戶帶來巨大的成本節省。
  今天在使用Infiniband作為儲存協議方面已經有了很大的進展。作為iSCSI RDMA的儲存協議iSER已被IETF標準化。
  不同於Fibre
Channel,Infiniband在儲存領域中可以直接支援SAN和NAS。儲存系統已不能滿足於傳統的Fibre Channel
SAN所提供的伺服器與裸儲存的網路連線架構。Fibre Channel
SAN加千兆乙太網加NFS的架構已經嚴重限制了系統的效能。在這種情況下應運而生的則是由在Infiniband
fabric連線起來的伺服器和iSER
Infiniband儲存的基礎架構之上的並行檔案系統(諸如HP的SFS、IBM的GPFS等等)。在未來的伺服器、儲存器網路的典型結構將會是由
Infiniband將伺服器和Infiniband儲存器直接連線起來,所有的IP資料網路將會透過萬兆乙太網到Infiniband的路由器直接進入
Infiniband Fabric。
  在儲存廠商方面Sun, SGI, LIS LOGIC,飛康軟體等公司都已推出自己的Infiniband儲存產品。在中國新禾科技公司也推出了他們的Infiniband儲存系統。
  從價格的角度,今天的Infiniband是萬兆乙太網的幾分之一。Inifiniabnd有比FibreChannel高5倍的效能,在價格上則已 與Fibre Channel在同一個數量級上。
  在HPC以外的領域的Infiniband的應用:
  在過去一年裡我們看到Infiniband在HPC以外的領域得到了長足的進步。這主要包括
Infiniband在大型網路遊戲中心的應用、Inifiniband在電視媒體編輯 及動畫製作方面的應用。在證券業方面,人們也已經在著手開發以
Infiniband為核心的高速、低遲延交易系統。在銀行業我們也看到了一些以Inifiniband全面取代Fibre Channel的努力。
  明、後年Infiniband的看點:
  Voltaire將於明年秋天推出萬兆乙太網到Infiniband的路由器。這將使由Infiniband對資料網路儲存網路的整合得到加速。
  Voltaire已經開發出全套的iSER Initiator、Target
code。很多儲存合作伙伴在利用Voltaire的iSER
code開發他們獨自Infiniband儲存系統。預計在明、後年大家會看到更多的Infiniband儲存系統投放市場。
  Infiniband已經進入刀鋒伺服器(IBM、HP等等),我們在未來的兩年還會看到這方面更多的努力和成功。
  Infiniband標準裝配在伺服器上的努力和成功。
  裝載Infiniband儲存的巨型機進入世界前500巨型機列表。
  Infiniband在網路遊戲業、石油業、電視媒體業、製造業等方面進入企業級應用。
  Infiniband:曲高和寡 前途未卜
  步入2008,資料中心的應用環境發生了巨大的變化,多核、虛擬化和刀片成為新一代資料中心的主流趨勢,在這樣的主流趨勢下,有些人預測 InfiniBand也將迎來其生命週期的黃金時代,有些人則持反對意見
  銜著金鑰匙出生
  早在2001年,一位國外專家Sandra Gittlen第一次為Network Word的年度熱門問題撰寫了關於當時出現的被稱作的互聯架構的文章。
  以下是Sandra Gittlen文章的開篇:
  “它就是治療網路瓶頸問題的靈丹妙藥,InfiniBand,下一代的個人電腦輸入/輸出架構,將隨時準備取代PCI的地位,成為伺服器的新標準。”
  那時候,大多數人都對InfiniBand給予厚望,有充分的理由相信InfiniBand即
將闖入市場,將會大展拳腳,並可一舉取代資料中心的網路。當時,有排成行的公司為此下了重資。事實上,有超過2億美元的風險投資在那個時候注入了與
InfiniBand相關的公司。其中的翹楚有Dell,HP,Compaq,Intel,IBM,Microsoft和Sun,這些大公司都為這項技術
的發展而努力著。
  InfiniBand,用最簡單的話說,就是在伺服器端一個主機通道介面卡和儲存裝置等外設上的目標介面卡之間的高速架構,因為這些介面卡之間直接通 訊,下載、安全和服務質量等可以內建。
  適者生存
  時間一閃到了2005年,情況發生了鉅變。
  那時候,很多早期獲得了關注的創業公司或是破產,或是被兼併,或是被收購。只有一些倖存了下來。在這段期間,同樣是Sandra Gittlen給Network World寫了另外一篇文章,是關於高效能運算和資料中心使用者在高速度互聯方面有成千上萬的選擇。
  一家存活至今的InfiniBand公司,Mellanox
Technologies的市場部副總裁Thad
Omura承認:雖然InfinBand技術發展至今已經相對成熟了,但卻受到了經濟衰退的影響。“在那段蕭條的時期裡,人們不會傾向於在新的互聯技術上
進行投資。”
  一晃又是兩年,情況又發生了一些改變。今天,我們在互聯方面的投資不斷增加,而如何利用互聯技術降低資料中心或高效能運算的成本方面也開始回暖。時至 今日,恐怕大家又要重新審視這個問題了:InfiniBand的時代終於來臨了嗎?
  上個月,IDC釋出了一份有關InfiniBand的調研報告,在這份關於
InfiniBand在全世界範圍內的發展預測中,IDC認為:“正是由於網路中不斷增長的需要,才推動了超越從前的重要商業服務的出現,以前那種伺服器
和儲存資源之間的互聯已經不能滿足現在的頻寬和容量了。因此,有些客戶在尋找現有互聯結構的替代品,能夠完全滿足吞吐量上的要求,也就是需要更多的頻寬和
更短的延遲。”
  IDC還認為:“高效能運算,向外擴充套件的資料庫環境,共享和虛擬化的輸入/輸出,以及有類似高效能運算特徵的財務軟體應用已經推動了很多 InfiniBand的發展,並將帶來更多InfiniBand的推廣和應用。”
  在報告中,IDC預測2011年InfiniBand產品製造收入將從去年的15,720萬美元升至61,220萬美元。
  多核、虛擬化和刀片是推動力
  這些訊息對於Omura這樣的infiniband廠商來說是個好訊息。Omura的客戶包括HP、IBM以及Network Appliance,這些一流的大廠都將InfiniBand技術使用到了自己的產品中,讓人對infiniband更增添了一些信心。
  Omura發言人表示,目前各種趨勢都在推動這種應用。“我們已經進入了多核CPU的時代,因此需要更多頻寬和更短的延遲;虛擬化則推動了統一輸入/ 輸出架構程式;刀鋒伺服器埠有限,但卻連線到同一塊背板上,這些趨勢都在加速著InfiniBand的發展。”
  根據infiniband技術的發展,InfiniBand的吞吐量目前是20Gb每秒,到2008年能達到40Gb每秒。與之相比的10G以太 網,2008年之前吞吐量上則不會有什麼改變。
  此外,對於資料中心目前而言最重要的問題是解決延遲時間的問題,InfiniBand延遲時間是1微妙,乙太網的延遲則接近於10微秒。
  難怪Omura發言人如此樂觀:“如果InfiniBand可以幫助我們既降低成本,又節約能源,還有更快的處理速度,人們肯定會選擇它的。”
  他以一個貿易公司為例,“如果你在交易過程中快了1毫秒,你一年的收益就可以達到1億美元。最先吃螃蟹的是高效能運算領域的公司,其次是金融機構。如 今我們看到那些資料庫驅動的實時應用,比如票務預訂系統,正在普遍使用InfiniBand產品。”
  應該說整個IT行業最近幾年在InfiniBand上的收益可能並不夠豐厚,但是產品的研究與
開發並沒有停滯不前。另外一家InfiniBand公司Mellanox也賺了個盆滿缽滿。他說:“從2001年到2005年,我們的收入年年都翻番。”
而且他認為大規模生產的出現還要再過上幾個月的時間。
  發展的阻礙
  就在一些infiniband廠商對InfiniBand的前途異常樂觀之時,在2005年曾
經收購了InifiniBand廠商Topspin
Communications的Cisco卻認為IDC關於InfiniBand技術在 企業級應用前景的預測是“過於樂觀了”。
  Cisco的伺服器虛擬化事業部銷售主管Bill Erdman認為:“目前InfiniBand的應用還不足以說明InfiniBand時代的到來。”
  Erdman說延遲時間短是InfiniBand產品的最大價值,但是IDC提到的其他驅動力,比如虛擬化,則在InfiniBand應用上有點困 難。
  “虛擬化需要特殊的裝置和做好定義的管理正規化,輸入/輸出整合則需要在InfiniBand和
乙太網/光纖通道之間的通路,並且簡單假設隨著客戶增加應用軟體和網站主機層卻不需要額外的防火牆、內容負載均衡以及網路入侵防禦系統等服務。”他
說,“InfiniBand並沒有和這些服務整合在一起。”
  Cisco已經看到InfiniBand產品在資料庫、後端資料庫主機以及資訊匯流排程式上的應用。“不過,如果有其他應用程式,需要更豐富的主機服 務,乙太網仍然是伺服器主機技術的選擇。”Erdman表示。
  Cisco與IDC意見相左,因此很難說InfiniBand產品是否能最終大舉進攻企業級市場。但是infiniband技術已經蹣跚了這麼久,走 了這麼遠,筆者有信心infiniband還能繼續走下去。那就讓我們拭目以待吧。

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/9240380/viewspace-630901/,如需轉載,請註明出處,否則將追究法律責任。