電子發(fā)燒友網(wǎng)報道(文/周凱揚)隨著AI計算在數(shù)據(jù)中心逐漸占據(jù)主導(dǎo)地位,整個服務(wù)器系統(tǒng)架構(gòu)中的虛擬化、網(wǎng)絡(luò)交換對硬件提出了更高的需求,為了降低進一步CPU的負載,DPU也就應(yīng)運而生。通過使用DPU,各種架構(gòu)的CPU不僅降低了功耗,還提升了效率,完美符合當(dāng)下對綠色計算的追求。
DPU真的能省錢嗎?
雖然依據(jù)各大DPU廠商的說法,大規(guī)模使用DPU可以降低總成本,不過這一觀點在過去以FPGA和ASIC主導(dǎo)的SmartNIC設(shè)計架構(gòu)的時期很難成立。FPGA更高的成本使得云服務(wù)廠商難以通過較低的成本來實現(xiàn)規(guī)模化。而ASIC方案靈活可編程的能力較低,難以跟上時刻在迭代和擴充的網(wǎng)絡(luò)環(huán)境,后續(xù)升級成本較高。
而如今普及的SoC方案,則通過結(jié)合不同的架構(gòu),降低成本的同時極大地提高了其靈活性。比如博通的Stingray就是Arm+ASIC的SoC方案,英特爾的IPU則是FPGA+x86或FPGA+Arm的SoC方案,Marvell的OCTEON 10也是Arm+ASIC的SoC方案等等。
這也就是為何不少云服務(wù)廠商紛紛投入使用DPU的原因,通過卸載CPU的負載,降低了整個系統(tǒng)的功耗,從而大幅降低了能源成本。以使用英偉達DPU的愛立信為例,據(jù)其公布的數(shù)據(jù),他們在使用DPU后將服務(wù)器CPU的功耗降低至145W,相比過去節(jié)約了24%的能耗。
這樣的數(shù)字在單個CPU,以及短運行周期內(nèi)看起來似乎不算什么,但對于大型數(shù)據(jù)中心而言,這樣的數(shù)字就意味著單個DPU應(yīng)用就可以在三年間省下近200萬美元的成本。同樣可以從中受益的還有OVS這一虛擬交換機應(yīng)用,根據(jù)英偉達公布的數(shù)據(jù),在使用BlueField-2來承接原本由CPU負責(zé)的交換任務(wù)后,單臺服務(wù)器的功耗可降低29%,達到305W。對于10000臺服務(wù)器的數(shù)據(jù)中心來說,也就是3年內(nèi)近500萬美元的成本節(jié)約。
CSP紛紛選擇了自研DPU
至于從云廠商的角度,那DPU是否省錢這一問題的答案就更明顯了。不少云服務(wù)廠商開始意識到,與其選擇第三方DPU,倒不如走上自研這條路。頭部CSP發(fā)現(xiàn)自研DPU不僅可以減少系統(tǒng)成本,還能解決數(shù)據(jù)中心在管理和虛擬化上的局限性,從而保證其產(chǎn)品優(yōu)勢。
比如字節(jié)跳動早在2020年就開啟了自研DPU氦卡的研發(fā),從2021年至今已經(jīng)發(fā)布了氦卡的1.0、1.5和2.0版本。目前最新的氦卡2.0一斤支持到網(wǎng)絡(luò)、存儲和虛擬化全量加速。這對于字節(jié)旗下的火山引擎來說,不僅實現(xiàn)了IaaS、PaaS和存儲資源統(tǒng)一的完全并池,也降低了成本,據(jù)字節(jié)跳動公布的數(shù)據(jù)氦卡使其TCO下降高達10%。
百度也在去年底發(fā)布了其自研DPU太行的2.0版本,新的DPU 2.0支持Intel、AMD和ARM平臺,也同時支持計算、存儲、網(wǎng)絡(luò)和虛擬化等功能。百度也基于太行2.0 DPU這一計算底座,打造了vQPE、BTHv、BOE、BDMA、RDMA和BHQoS六大自研引擎,做到多協(xié)議、多場景、跨平臺和低時延。
這與此前百度公布的太行DPU發(fā)展路徑一致,從路線圖上來看,未來的太行DPU 3.0將定位為云原生的IO引擎,實現(xiàn)BVC共平臺、硬件資源的全面解耦以及軟件定義實例等,做到端到端的極致性能。
寫在最后
其實隨著CSP紛紛自研DPU,這對于不少第三方DPU廠商都提出了一定的挑戰(zhàn)。首先大型CSP廠商都有這樣的能力去組建一個團隊,來為其量身打造自研DPU,甚至是直接通過收購來完成這一目的,比如微軟年初收購的Fungible??梢哉f,未來DPU廠商的競爭壓力將進一步放大,不僅要和同行對手卷,還要和自己的客戶卷。但好在對于使用云服務(wù)的用戶來說,DPU的出現(xiàn)一定會進一步降低使用成本。
-
DPU
+關(guān)注
關(guān)注
0文章
368瀏覽量
24260
發(fā)布評論請先 登錄
相關(guān)推薦
評論