欧美,精品,综合,亚洲,好吊妞视频免新费观看,免费观看三级吃奶,一级a片女人自慰免费看

您當前的位置是:  首頁 > 資訊 > 人物 >
 首頁 > 資訊 > 人物 >

阿里云王鵬:如果都采用浸沒液冷技術(shù),一年可節(jié)省上千億度電

2023-06-08 09:10:00   作者:   來源:C114通信網(wǎng)   評論:0  點擊:


  當前,算力是支撐數(shù)字經(jīng)濟蓬勃發(fā)展的重要“底座”,企業(yè)的數(shù)字化轉(zhuǎn)型,各行各業(yè)數(shù)字經(jīng)濟的落地都離不開算力,同時以生成式AI為代表的大模型對算力需求已超過摩爾定律增長。

  而算力需求的持續(xù)增長,給碳達峰、碳中和目標帶來一定壓力,畢竟數(shù)據(jù)中心是能耗大戶。這一背景下,發(fā)展“綠色計算”,建設(shè)低碳數(shù)字基礎(chǔ)設(shè)施成為“減碳”新方向。

  日前,由CIOE中國光博會與C114通信網(wǎng)聯(lián)合推出的“2023中國光通信高質(zhì)量發(fā)展論壇”系列活動之“數(shù)據(jù)中心光互連技術(shù)研討會”在北京舉辦。阿里云計算有限公司技術(shù)專家王鵬介紹了綠色光互聯(lián)技術(shù)方案探索與應(yīng)用實踐。

  

 

  王鵬介紹,典型數(shù)據(jù)中心能耗構(gòu)成中,IT設(shè)備功耗占比超過50%,其中網(wǎng)絡(luò)設(shè)備能耗在IT設(shè)備能耗中占比約10%。網(wǎng)絡(luò)設(shè)備中光模塊能耗占比一般接近40%。

  具體到光模塊的功耗演進,可插拔光模塊從10G演進到800G,模塊功耗提升近26倍。從50G PAM4/lane光模塊開始,電芯片DSP/CDR with driver功耗在可插拔光模塊中的占比超過60%。

  王鵬表示,目前業(yè)界對于綠色光互聯(lián)技術(shù)探索主要從光模塊功耗、網(wǎng)絡(luò)架構(gòu)設(shè)計,以及系統(tǒng)散熱方案三方面入手。

  降低光模塊功耗方面,包括采用先進制程和工藝,降低電芯片DSP/CDR功耗,或是采用線性驅(qū)動LPO方案,取消電芯片DSP/CDR;或采用NPO、CPO等密集封裝形態(tài);或降低驅(qū)動電壓、降低插入損耗,提高Laser電光效率和耦合效率等。

  實際情況來看,采用先進制程DSP的功耗和工藝將會大幅降低芯片功耗,不過隨著半導(dǎo)體制程逼近物理極限,功耗下降區(qū)間越來越小。其次,以800G DR8方案進行舉例,不同的技術(shù)方案功耗上也會有差異,TFLN方案功耗略低于EML,EML方案功耗略低于SiPh;而采用LPO方案的DR和SR模塊功耗分別降低至少35%~50%。最后,以單端口800G帶寬為例,NPO switch相比Pluggable switch光互聯(lián)功耗可以降低至少10%以上;而CPO switch相比Pluggable switch光互聯(lián)功耗可以降低至少50%以上。

  網(wǎng)絡(luò)架構(gòu)設(shè)計方面,采用小架構(gòu)建設(shè),降低光互聯(lián)距離,用多模光模塊代替單模光模塊;采用高帶寬交換芯片代替低帶寬芯片堆疊;采用光交換代替電交換機。

  實際情況來看,部分業(yè)務(wù)場景中,不追求極大規(guī)模集群建設(shè),采用更經(jīng)濟的小集群建設(shè),400G及以下速率采用多模光模塊可以降低光互聯(lián)功耗。以200G和400G網(wǎng)絡(luò)架構(gòu)為例,全部采用多模光模塊相比單模光模塊(同代產(chǎn)品)功耗分別下降至少30%和20%。

  對單芯片交換機來說,芯片帶寬翻倍,組網(wǎng)規(guī)模變?yōu)樵瓉淼牧种,光模塊總功耗下降至少65%。以51.2T交換芯片為例,單臺51.2T交換機相比6臺25.6T交換機,整機總功耗下降至少70%。另外,在傳統(tǒng)數(shù)據(jù)中心網(wǎng)絡(luò)中,若將Spine層電交換機替換為光交換開關(guān)(Optical Circuit Switch,簡稱OCS),總功耗可以降低至少40%以上。

  系統(tǒng)散熱方案方面,降低工作環(huán)境溫度,可以降低系統(tǒng)功耗;采用浸沒式液冷技術(shù),使用浸沒式液冷光模塊。

  王鵬表示,目前,阿里巴巴已自主完成100G和200G浸沒式液冷光模塊方案開發(fā)及部署,具備400G及更高速率方案開發(fā)能力。據(jù)了解,阿里單相全浸沒式液冷能夠?qū)崿F(xiàn)全局冷卻、高效換熱,PUE值低至1.09。初步估算,如果全國的數(shù)據(jù)中心都采用浸沒液冷技術(shù),預(yù)計到2025年,一年可節(jié)省上千億度電。

  從阿里云的實踐看,阿里巴巴張北云數(shù)據(jù)中心,是互聯(lián)網(wǎng)行業(yè)第一個浸沒式液冷生產(chǎn)集群,全局自然冷卻,局部PUE可達1.04;阿里巴巴仁和液冷數(shù)據(jù)中心,是國內(nèi)最大規(guī)模浸沒式液冷生產(chǎn)集群,全中國首座綠色等級達5A的液冷數(shù)據(jù)中心,全球首座全年平均PUE 1.09的綠色數(shù)據(jù)中心。

  王鵬表示,面向未來,阿里云將攜手產(chǎn)業(yè)各方共建生態(tài),促進數(shù)據(jù)中心綠色轉(zhuǎn)型。秉承技術(shù)驅(qū)動,倡導(dǎo)節(jié)能減排,讓綠色光互聯(lián)技術(shù)助力低碳綠色數(shù)據(jù)中心建設(shè)。

【免責聲明】本文僅代表作者本人觀點,與CTI論壇無關(guān)。CTI論壇對文中陳述、觀點判斷保持中立,不對所包含內(nèi)容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。

相關(guān)閱讀:

專題

CTI論壇會員企業(yè)