InfiniBand: 支援高效能運算革命的強大網路架構

07 Apr 2022

在過去的數十年裡,InfiniBand和乙太網持續競爭網路通信世界的主導地位。作為被最廣泛使用的網路通訊協議,乙太網擁有優秀的性價比以及和多數裝置兼容的優勢。

然而,現今網路早已發展成一個更為龐大複雜的系統,大量的數據運算需求讓人們開始關注InfiniBand架構的優勢,包含:

高效率、低延遲

InfiniBand為目前最高效率的網路通訊架構,具有高吞吐量和極低的延遲。InfiniBand在網路內部整合了運算引擎,有效加速深度學習和高性能運算(HPC)的資料處理。

InfiniBand latency with switch

InfiniBand latency with switch
Source:DELL Technologies

可擴展性

InfiniBand具有高度可擴展的架構。它可以在一個子網內支持成千上萬的節點,也可通過路由器進行擴展,創造近乎無限的規模。

另一方面,乙太網的架構在擴展方面有其侷限性。除了需要額外的路由器、交換機;在數據中心裡,DAC(Direct Attach Cable)無源銅纜只能用於10公尺之內。此外,乙太網擴充後傳輸速度也受到限制。

HPL across 16 servers
Source:DELL Technologies

支援RDMA

InfiniBand支援RDMA(遠端直接記憶體存取),這項技術允許使用者的應用程式直接讀取或寫入遠端記憶體,無核心干預和記憶體拷貝發生。因此非常適用於伺服器與儲存設備間的連線。

上述原因使InfiniBand為高性能計算(HPC)、深度學習和大規模雲資料中心…等領域的發展帶來更多的可能性。

優勢 缺點
乙太網
  • 和多數裝置兼容
  • 優秀的性價比
  • 擴展性受限
InfiniBand
  • 高速率、低延遲
  • 可擴展性
  • 支援RDMA
  • 價格較高

InfiniBand的領導者: Mellanox

InfiniBand領域的領導企業包含Mellanox和英特爾。Mellanox於2019年被NVIDIA集團收購,是目前InfiniBand半導體的領先品牌,為伺服器、通信、資料存儲和嵌入式系統市場提供完整解決方案。由於其優秀的可擴展性以及和各種式晶片(如X86、ARM、POWER和GPU…等)的相容性,越來越多的HPC使用者選擇Mellanox的InfiniBand網路。

正淩有幸能參與由InfiniBand帶來的高效能運算革命。包括QSFP+, QSFP28及QSFP-DD…等產品的I/O連接器系列已被InfiniBand領導品牌採用多年。SFP系列產品除了可支援InfiniBand也可支援乙太網架構。

Name Abbreviation Raw Signling Rate Applied Encoding Effective Data Rate Aggregated(4x) Throughput module
Single Data Rate SDR 2.5Gb/s 8b/10b 2Gb/s 8Gb/s CX4/SFF-8470
Double Data Rate DDR 5Gb/s 8b/10b 4Gb/s 16Gb/s CX4/SFF-8470
Quad Data Rate QDR 10Gb/s 8b/10b 8Gb/s 32Gb/s QSFP+
Fourteen Data Rate FDR 14.1Gb/s 64b/66b 13.64Gb/s 54.5Gb/s QSFP+
Enhanced Data Rate EDR 25.8Gb/s 64b/66b 25Gb/s 100Gb/s QSFP28
High Data Rate HDR 51.6Gb/s 64b/66b 50Gb/s 200Gb/s QSFP DD
Next Data Rate NDR TBD TBD TBD TBD TBD

InfiniBand與乙太網兼容產品


This website uses technical and analytical cookies, including third-party cookies, to analyse user browsing behaviour, create website visit statistics and improve the contents provided. To consult the full Cookie Policy or decline, at a later date, your consent to the cookies used by the website, click here.

Got It!