發布日期:2022-07-15 點擊率:70
在前幾年如火如荼的熱潮中,很多公司都看好Infiniband在數據中心互連中的應用前景。但在泡沫破滅之后,一些企業轉而投資加速版以太網。目前來看,數據中心不大可能被統一到一種技術標準之上。但是,多種網絡技術將匯聚于混合芯片之中的趨勢卻日漸明朗。
迄今為止,或許芯片級融合的最大標志是Mellanox Technologies公司近期所推出的ConnectX架構。該架構在一顆芯片中集成了對以太網和Infiniband的支持,還有限地支持光纖信道(Fibre Channel)標準。此舉標志著這家Infiniband芯片公司的一個重大舉措。
在數據中心領域狂賭多網絡架構方案的并非僅僅Mellanox一家。早在去年11月,Infiniband交換機供應商Voltaire就宣布今年6月要交付使用也支持10Gbps以太網的高端交換機。該公司將采用其自有的ASIC來支持兩個網絡之間的橋接并在Infiniband上承載互聯網協議(IP)。
順應類似的發展趨勢,光纖信道供應商QLogic公司近期兼并了Infiniband交換機制造商SilverStorm Technologies公司。2006年初,QLogic兼并了Infiniband卡制造商PathScale公司。
HP個人電腦服務器部的互連專家Michael Krause表示:“人們對融合之事眾說紛紜,要轉變為實際的產品環境可能要幾年的時間,因為消費者是企業中一群吹毛求疵的人。”
Mellanox提供的90納米ConnectX架構的首要目的,是讓刀片服務器制造商利用單芯片方案來鞏固對Infiniband和以太網的支持,這種單芯片也為光纖信道和iSCSI提供某種支持。“那就是主要的應用。”Mellanox公司的產品市場副總裁Thad Omura表示。
HP的Krause指出,符合10Gbps以太網的KR版本產品不久將上市。它們將使“刀片服務器內部的走線比傳輸10Gbps應用數據的Infiniband要少,”他說。
Mellanox透露,實際上所有頂級服務器制造都已經在其刀片服務器中采用了Infiniband。其中一些制造商甚至采用了數據率達20Gbps的互連,Omura說道。
今年初交付使用的基于ConnectX架構的產品將呈現若干特色。其中一款產品將僅僅支持10和20Gbps Infiniband,另一款產品將支持混合的10Gbps和20Gbps的Infiniband以及1Gbps和10Gbps以太網。今年晚些時候,Mellanox將交付使用基于ConnectX架構的40Gbps Infiniband適配器。
“我們擁有自己的10Gbps以太網MAC,并且我們使用的所有串并/并串轉換器也都是自己開發出來的,我們希望所有的IP(知識產權)都由內部開發。”Omura說。
ConnectX芯片可以在Infiniband數據包中封包光纖信道指令。然而,他們需要一種從Infiniband到光纖信道的橋接以鏈接到本地的光纖信道存儲網絡。Omura暗示這樣的產品今年將上市,但不愿意透露Mellanox將在何處生產。“在硬件中沒有特別的光纖信道控制器,但采用了硬件機制來加速光纖通道協議。”他說。
會否犧牲性能?
一些觀察人士指出,讓一種協議—如IP或光纖信道—嫁接到另外一種協議之上可能會付出犧牲性能的代價。例如,IP-Over-Infiniband在一些實現方案中可能僅僅產生2到3Gbps的吞吐量;而即使考慮了編碼開銷之后,采用Infiniband鏈路仍然能夠承載最多8Gbps的吞吐量。在以太網一側,該芯片不支持TCP卸載。取而代之的是他們依賴于Infiniband模塊第四層的遠端直接存取能力。
當今年年初Mellanox在ConnectX芯片上展示40Gbps Infiniband鏈路時,其四速率Infiniband能力將具有低達1ms的延遲,比現有芯片的μs有所下降。這種40Gbps器件的每端口功耗小于6W,并將于2008年初在系統中部署。
作者:麥利