NVIDIA 加速 AI 平臺和產品(如 NVIDIA EGX 、 DGX 、 OVX 和 NVIDIA AI for Enterprise)需要數據中心網絡提供最佳的性能。NVIDIA Spectrum 以太網平臺通過芯片級創新實現了這一性能。
融合以太網 RDMA(RoCE)自適應路由技術通過減少網絡擁塞問題加快了應用程序的速度。這篇文章介紹了 NVIDIA Spectrum 以太網平臺的自適應路由技術,并提供了一些初步的性能基準。
是什么讓網絡變慢了?
您不必是云服務提供商就可以從橫向擴展網絡中獲益。網絡行業已經發現,具有第 2 層轉發和生成樹的傳統網絡架構效率低下,而且難以擴展。他們過渡到 IP 網絡結構。
這是一個很好的開始,但在某些情況下,它可能不足以解決數據中心中引入的新型應用程序和大量的流量。
可擴展 IP 網絡的一個關鍵屬性是它們能夠跨多個交換機層次結構分發大量的流和流量。
在一個完美的世界中,數據流是完全不相關的,因此在多個網絡鏈路上分布均勻、負載平衡平穩。該方法依賴于現代哈希和多路徑算法,包括等價多路徑(ECMP)。運營商受益于在規模迥異的數據中心中廣泛部署的高端口數、固定規格的交換機。
然而,在許多情況下,這是行不通的,通常包括無處不在的現代工作負載,如 AI 、云和存儲。
這是一個有限熵的問題。熵是一種衡量流經給定網絡的流量的豐富性和多樣性的方法。
當您有數千個從全球各地的客戶端隨機連接的流時,您的網絡被稱為有 high entropy 。然而,當您只有少數大型流時(這在 AI 和存儲工作負載中經常發生),大型流會控制帶寬,因此會出現 low entropy 。這種低熵流量模式也稱為“大象流”分布,在許多數據中心工作負載中都很明顯。
那么為什么熵很重要呢?
使用靜態 ECMP 的傳統技術,您需要高熵來將流量均勻地分布在多個鏈路上,而不會出現擁塞。然而,在“大象流”場景中,多個流可能出現在同一條鏈路上,從而創建一個超過線路帶寬的流量熱點或微突發。這會導致擁塞、延遲增加、數據包丟失和重傳。
對于許多應用程序,性能不僅取決于網絡的平均帶寬,還取決于流完成時間的分布。完成時間分布中的長尾或異常值可能會顯著降低應用程序性能。圖 2 顯示了低熵對流完成時間的影響。
此示例由單個架頂交換機組成,具有 128 個 100G 端口。
64 個端口是連接到服務器的 100G 下游端口。
64 個端口是連接到第 1 層交換機的 100G 上游端口。
每個下游端口接收四個帶寬相等的流:25G 每個流,總共 256 個流。
所有流量都通過靜態哈希和 ECMP 處理。
在最好的情況下,此配置的可用帶寬不會被超額使用,因此可能會出現以下結果。在最壞的情況下,與理想情況相比,流程可能需要長達 2.5 倍的時間才能完成。
在這種情況下,一些端口擁塞,而其他端口未使用。最后一個流(最壞情況流)的預期持續時間是預期第一個流持續時間的 250% 。此外,10% 的流預計流完成時間超過 150% 。也就是說,有一組長尾流,完成時間比預期的要長。為了高置信度的避免擁塞(98%),必須將所有流的帶寬降低到 50% 以下。
為什么有許多流會而受到影響而完成時間過長?這是因為 ECMP 上的一些端口非常擁擠。當流完成傳輸并釋放一些端口帶寬時,滯后流通過相同的擁塞端口,導致更多擁塞。這是因為在對標頭進行哈希處理后,路由是靜態的。
自適應路由
NVIDIA 正在為Spectrum交換機引入自適應路由。通過自適應路由,轉發到 ECMP 組的流量選擇擁塞程度最低的端口進行傳輸。擁塞程度基于出口隊列負載進行評估,確保 ECMP 組在不考慮熵級別的情況下保持良好平衡。向多個服務器發出多個請求的應用程序以最小的時間變化接收數據。
這是如何實現的?對于轉發到 ECMP 組的每個數據包,交換機在其出口隊列上選擇負載最小的端口。評估的隊列是那些與數據包服務質量匹配的隊列。
相比之下,傳統的 ECMP 基于哈希方法進行端口決策,這通常無法產生清晰的比較。當相同流的不同數據包通過網絡的不同路徑傳輸時,它們可能會在到達目的地時出現亂序的情況。在 RoCE 傳輸層,NVIDIA ConnectX NIC 負責處理無序數據包,并將數據按順序轉發給應用程序。這使得自適應路由對從中受益的應用程序透明。
在發送方面,ConnectX 可以動態標記符合網絡重新排序的條件的流量,從而確保在需要時可以強制執行消息間排序。交換機自適應路由分類器只能對這些標記的 RoCE 流量進行分類,使其使用這種獨特的轉發方式。
Spectrum 自適應路由技術支持各種網絡拓撲。對于 CLOS(或葉/脊椎)等典型拓撲,到給定目標的各種路徑的距離是相同的。因此,交換機通過擁塞最小的端口傳輸數據包。在路徑之間距離不同的其他拓撲中,交換機傾向于通過最短路徑發送流量。如果擁塞發生在最短路徑上,則選擇擁塞最小的備選路徑。這確保了網絡帶寬得到有效利用。
工作負載測試結果
存儲
為了驗證 RoCE 中自適應路由的效果,我們從測試簡單的 RDMA 寫測試應用程序開始。在這些在多個 50 Gb/s 主機上運行的測試中,我們將主機分成幾對,每對主機在很長一段時間內互相發送大型 RDMA 寫流。這種類型的流量模式是存儲應用程序工作負載中的典型模式。
圖 4 顯示了基于哈希的靜態路由在上行鏈路端口上發生沖突,導致流完成時間增加,帶寬減少,流之間的公平性降低。在轉移到自適應路由后,所有問題都得到了解決。
在第一個圖中,所有流幾乎同時完成,峰值帶寬相當。
在第二個圖中,一些流實現了相同的帶寬和完成時間,而其他流發生沖突,導致完成時間更長,帶寬更低。實際上,在 ECMP 的情況下,一些流在 13 秒的理想完成時間 T 內完成,而性能最差的流需要 31 秒,約為 T 的 2.5 倍。
人工智能/高性能計算
為了繼續評估 RoCE 工作負載中的自適應路由,我們在一個 32 服務器測試臺上測試了常見 AI 基準測試的性能收益,該測試臺在兩級胖樹網絡拓撲中使用四個 NVIDIA Spectrum 以太網交換機構建。該基準測試評估了分布式 AI 訓練和 HPC 工作負載中常見的集合操作和網絡流量模型,如 all-to-all 流量和 all-reduce 操作。
總結
在許多情況下,基于靜態哈希的轉發會導致高擁塞和可變的流完成時間。這會降低應用程序的性能。
NVIDIA Spectrum 自適應路由解決了這個問題。這項技術增加了網絡使用的帶寬,最大限度地減少了流完成時間的變化,從而提高了應用程序的性能。
將此技術與 NVIDIA ConnectX 網卡提供的 RoCE 亂序包支持相結合,應用程序對所使用的技術是透明的。這確保了 NVIDIA Spectrum 以太網平臺提供了實現數據中心性能最大化所需的加速以太網能力。
審核編輯:湯梓紅
-
以太網
+關注
關注
40文章
5460瀏覽量
172750 -
NVIDIA
+關注
關注
14文章
5076瀏覽量
103728 -
網絡
+關注
關注
14文章
7600瀏覽量
89256 -
路由技術
+關注
關注
0文章
12瀏覽量
6526 -
spectrum
+關注
關注
0文章
42瀏覽量
13930
原文標題:部署 NVIDIA Spectrum Ethernet 的自適應路由功能加速網絡通信
文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
單對以太網供電技術的演進和應用
![單對<b class='flag-5'>以太網</b>供電<b class='flag-5'>技術</b>的演進和應用](https://file1.elecfans.com/web3/M00/06/0F/wKgZPGeHU9SAJhl_AAAQLQSKJYQ683.png)
NVIDIA 以太網加速 xAI 構建的全球最大 AI 超級計算機
![<b class='flag-5'>NVIDIA</b> <b class='flag-5'>以太網</b>加速 xAI 構建的全球最大 AI 超級計算機](https://file1.elecfans.com/web2/M00/0A/7A/wKgZomchjR-AfeU7AAHSQG3Nhog495.png)
淺析以太網的發展走勢
車載以太網與傳統以太網的區別
車載以太網的優勢和應用
以太網要怎么連接
什么是工業以太網?有何特點?
工業以太網和普通以太網區別在哪
![](https://file1.elecfans.com/web2/M00/EC/95/wKgZomZla2uACvmeAAUrVRH1pgw844.png)
NVIDIA Spectrum-X 以太網網絡平臺已被業界廣泛使用
![](https://file1.elecfans.com/web2/M00/EA/91/wKgZomZZNV6ABmUHAALQaX4H-ZI635.jpg)
![](https://file1.elecfans.com/web2/M00/E5/38/wKgaomY_QQqANHQTAADb2CrD2i8864.jpg)
評論