InfiniBand: 支援高效能運算革命的強大網路架構

在過去的數十年裡,InfiniBand和乙太網持續競爭網路通信世界的主導地位。作為被最廣泛使用的網路通訊協議,乙太網擁有優秀的性價比以及和多數裝置兼容的優勢。
然而,現今網路早已發展成一個更為龐大複雜的系統,大量的數據運算需求讓人們開始關注InfiniBand架構的優勢,包含:
高效率、低延遲
InfiniBand為目前最高效率的網路通訊架構,具有高吞吐量和極低的延遲。InfiniBand在網路內部整合了運算引擎,有效加速深度學習和高性能運算(HPC)的資料處理。

InfiniBand latency with switch

InfiniBand latency with switch
Source:DELL Technologies
可擴展性
InfiniBand具有高度可擴展的架構。它可以在一個子網內支持成千上萬的節點,也可通過路由器進行擴展,創造近乎無限的規模。
另一方面,乙太網的架構在擴展方面有其侷限性。除了需要額外的路由器、交換機;在數據中心裡,DAC(Direct Attach Cable)無源銅纜只能用於10公尺之內。此外,乙太網擴充後傳輸速度也受到限制。

HPL across 16 servers
Source:DELL Technologies
支援RDMA
InfiniBand支援RDMA(遠端直接記憶體存取),這項技術允許使用者的應用程式直接讀取或寫入遠端記憶體,無核心干預和記憶體拷貝發生。因此非常適用於伺服器與儲存設備間的連線。
上述原因使InfiniBand為高性能計算(HPC)、深度學習和大規模雲資料中心…等領域的發展帶來更多的可能性。
優勢 | 缺點 | |
---|---|---|
乙太網 |
|
|
InfiniBand |
|
|
InfiniBand的領導者: Mellanox
InfiniBand領域的領導企業包含Mellanox和英特爾。Mellanox於2019年被NVIDIA集團收購,是目前InfiniBand半導體的領先品牌,為伺服器、通信、資料存儲和嵌入式系統市場提供完整解決方案。由於其優秀的可擴展性以及和各種式晶片(如X86、ARM、POWER和GPU…等)的相容性,越來越多的HPC使用者選擇Mellanox的InfiniBand網路。
正淩有幸能參與由InfiniBand帶來的高效能運算革命。包括QSFP+, QSFP28及QSFP-DD…等產品的I/O連接器系列已被InfiniBand領導品牌採用多年。SFP系列產品除了可支援InfiniBand也可支援乙太網架構。
Name | Abbreviation | Raw Signling Rate | Applied Encoding | Effective Data Rate | Aggregated(4x) Throughput | module |
---|---|---|---|---|---|---|
Single Data Rate | SDR | 2.5Gb/s | 8b/10b | 2Gb/s | 8Gb/s | CX4/SFF-8470 |
Double Data Rate | DDR | 5Gb/s | 8b/10b | 4Gb/s | 16Gb/s | CX4/SFF-8470 |
Quad Data Rate | QDR | 10Gb/s | 8b/10b | 8Gb/s | 32Gb/s | QSFP+ |
Fourteen Data Rate | FDR | 14.1Gb/s | 64b/66b | 13.64Gb/s | 54.5Gb/s | QSFP+ |
Enhanced Data Rate | EDR | 25.8Gb/s | 64b/66b | 25Gb/s | 100Gb/s | QSFP28 |
High Data Rate | HDR | 51.6Gb/s | 64b/66b | 50Gb/s | 200Gb/s | QSFP DD |
Next Data Rate | NDR | TBD | TBD | TBD | TBD | TBD |