導航:首頁 > IDC知識 > idc機房pue值

idc機房pue值

發布時間:2021-02-18 16:58:53

1、如何構建綠色數據中心PUE 1.35

降低PUE唯一的辦法就是降低額外的耗電量,空調佔主要位置。加強模塊化通道密封性。減少冷量流失,設備集中加強集中供冷、實時監測設備負載,以方便更改空調輸出的製冷量。另:可以可以引進外界冷空氣交換等。。

2、影響數據中心的PUE值有哪些要素

PUE不大於1.4在空調技術上是可行的。制約PUE的,我認為,現階段主要是冷卻技術、空調技術、如何高效排熱的問題。 貼一個清華大學江億院士的演講: 各位來賓、各位專家、各位領導早上好!我好象是第一次參加綠色數據中心的技術大會,因為咱們不是搞計算機這行的,是搞空調,搞建築節能的,但是好象也慢慢把我們推到這個行業了。為什麼?是因為空調的能耗或者說派熱降溫的能耗在數據中心裡佔了比較大的比例。所以,剛才我聽前面這位領導講數據中心都快到了運行這個程度了,運行主要是能源消耗,能源消耗里就40%或者更多是空調的能耗。所以,怎麼能夠降低空調的能耗,一方面給國家的節能減排作貢獻,一方面也使我們數據行業產生更好的經濟效益,就變成重要的問題了,所以我今天跟大家匯報一下我們在這方面的想法跟體會。 從空調的特點來看,現在隨著計算機電子技術的發展,晶元技術都比原來高,主機的發熱度越來越大,這樣導致空調排熱成為這裡面大的部分。後面有一些細的發展狀況不說了,就直接看到空調里頭。現在統計大致的結果,對於中小型的數據中心大概PUE值都在2,或者以上,這是空調佔了一半或者還多的一個能源消耗。對大型的IDC機房管理做的比較好的,這時候空調效率相對比較高,但是也能佔到40%左右的能耗。 所以,降低數據中心的能耗可能一個是提高伺服器的使用效率,沒活兒的讓它歇著,一方面減少了空氣的運行能耗,當然,電源也有可以提高的技術。空調應該有很大的潛力,空調裡面的能耗由什麼構成?以前一想說製冷機,壓縮機耗電多,實際上壓縮機耗電在50%-60%左右,除了壓縮機之外,風機也能佔在40%或者更多的空調耗能。 現在的情況什麼樣?大概有這么幾塊:第一、因為全年製冷,所以絕大部分的數據中心製冷機都開了,這是一年來總的空調的考點狀況,可以看出冬天、夏天區別很少,北京、上海、廣州冷的地方,熱的地方區別很少,應該說冬天天涼了,北京空調越來越大幅度下來,這個變化也不大,所以全年度在這兒用。然後,有關發熱密度非常大,負責把這些熱量排走,所以循環風特別大。並且風吹的還厲害,不行把風量減少,降低送風溫度,但是當冷源溫度低於屋子裡溫度的時候,蒸發器就凝水,恨不得天天都出濕,出了濕又怕屋子裡太干,所以又有了一些加濕器,這邊除濕,那邊又得加濕,又得用電,冬天大冷的天還得製冷,這構成了現在數據中心,無論是大的,還是小的空調能源消耗高的主要問題。 有這樣問題是壞事兒,反過來又是好事兒。說明咱們在這兒的潛力特別大,有很大的潛力可以把空調能源消耗降下來。那麼,走哪條道?怎麼做?一聽說這個空調跟你們建築節能是一碼事,建築節能都抓圍護結構保溫,咱們整這個,圍護結構,效果非常小,或者無效果,為什麼?因為一個IDC密一點的機房一平米大概產熱量3-5千萬,通過圍護結構進入或者出去的熱量不會超過摺合在佔地面積上不會超過50瓦,所以,圍護結構的影響很小,就是1%,2%的影響。當然,通過一些技術,避免外牆直接太陽輻射,比來我這兒熱,再拿太陽照我,盡可能的密閉,別讓風進來,這是很重要的。可能有些專家說,風滲進來,有什麼不好,如果房子做的不密閉,就是不可控制的室外滲風,是涼快了,但是濕度下降了,夏天熱容器不好,而且由於室外的濕度變化大,我數據中心裏面希望濕度維持基本穩定不變,給我添加濕、除濕的麻煩事兒。因此,通過各方面應該把房子做密閉了,對目前來說不是保溫的事兒,而且密閉的事兒,密閉最重要。 那麼,怎麼把熱量排出去,馬上前幾年一些企業想辦法說既然冬天不開製冷機,而且外邊涼,最簡單的通風換氣吧,是通過涼風進來,把熱量排走,這是有點節能,但是恐怕數據中心這么做不太合適,為什麼?室外的灰塵贓,機器得干凈,濕度室外是變化的,夏天北京的一立方米空氣有2克的水汽,另外中國是燒煤的國家,70%的化石能源都來自於煤,燃煤就出硫,硫化物到室內,就會導致表面發生腐蝕現象,所以這是不行,您的冷卻系統是為主機服務的,要是有損於主機,無論是灰塵還是硫化物,還有濕度都會影響主機的壽命,這是絕對不能有的。因此,說就想法通過過濾消除灰塵,想法加濕、除濕改變濕度,想法脫硫,當把這些東西都架上,就發現投入的成本和能源消耗就不低了,而且維護管理的工作量立刻上去了,那麼這么大的數據中心要求高可靠性運行,於是這事兒有點別扭了。 還有通過熱交換把涼氣取回來,這個思路是挺好,對於一些小規模的計算中心,像一個大樓里的數據中心有時候還可以,但是對於大規模的機房是無法實現的,是因為直接走風道這么大發熱量得有多大的風量直接室外來回換氣,風道的體積在那兒擺著不合適,然後維護工作量非常大,尤其還是贓。所以,室外的低溫必須想法用上,是通過室外的新風,怎麼通過某種能量涼下來,最後把機器裡面的熱量帶走。 所以,整個的數據中心的空調跟咱們樓里的空調概念不一樣,它的核心事兒就是怎麼把晶元那兒出來的熱量通過某種介質傳熱,傳完之後,幾次交換,最後導到室外去就這么一個任務。所以,這時候根本目標就是讓晶元的溫度不要超過標准溫度,然後把這個溫度排出來。這樣晶元表面溫度和冷源溫度的差跟熱阻成正比,就是怎麼把這個等效熱阻降低了核心的事兒就變成了這么一個問題。溫差小就是如果我晶元溫度不許超過40度,如果我的溫差是20度,只要室外溫度低於20度,我就不用開冷空氣就可以把熱量排走,所以就要減少等效熱阻。那麼,這個等效熱阻由什麼構成?發現就像咱們的一個中國絡,三個電阻,三個等效熱阻,哪三個過程?一個就是晶元跟空氣之間的換熱環節,這個差越大,溫差就越大,比如我可以取平均溫度,等效熱阻就是這塊面積除以熱量,第一個環節就是容器跟晶元表面換熱的環節。第二個環節,比如說我有一個精密空調跟水,或者室外的冷水換熱,這冷水跟容器之間的換熱環節,我們叫輸送與換熱熱阻。第三個環節,循環介質與冷源之間換氣,叫做冷源換熱熱阻。比如說室內溫度到20度,實際只欠10度的溫差,這時候冷空機提供的活兒就是這10度的溫差。所以,把熱阻減少了,無論是用自然冷源還是開冷風機都可以降低功耗。因此,核心的問題就是把這三個環節的熱阻降下來。所以,就三個關鍵,第一、降低熱量採集過程的熱阻,同時不增加風機電耗。第二、降低熱量傳輸過程中的熱阻,同時不增加傳輸電耗。第三、找到溫度更低的自然冷源,但是別破壞環境。 下面逐條看,採集過程中的熱阻,實際的採集熱阻,除了空氣跟晶元換熱之外,還有相當大的消耗是機房裡面冷風跟熱風的互相攙混,製冷機就是把冷風熱的溫度分開,分出冷熱風,這個屋子裡面又沒地兒跑,又攙混起來了,所以避免冷風熱機的攙混。比如說要是給定晶元溫度,當攙混小的時候,回風溫度可以更緊的接近晶元,如果我恆定晶元溫度回風少的時候,這樣就可以更大程度的利用這個資源。有一些實測的數據,是在大的IC機房裡實測的,大家可以看出來,比如冷通道進來,從機房送出來應該這兒是16點幾度,到這兒怎麼就能30多度呢?它這兒上面還有一塊擋,這30多度是哪兒來的?就是因為部分的過了伺服器之後,伺服器裡面有空檔,空檔的熱風又滲回來了,熱風跟這些東西攙混到這些地兒,能到35度。為了保證上面伺服器的這些效果,於是就得降低送風溫度,為了保證上面差不多,結果把這個溫差就拉大了,導致整個的冷交熱的增加。所以,這兒看著排風有40度的,這些排風35、36度,總的到空調下一看,派風溫度才28度,怎麼降下來了?就是涼風過去跟熱風攙和起來了,這樣晶元大概在45度以上。如果避免了這些混合之後,就可以把回風溫度很容易提高到35度,輸送溫度也可以提高到20度,保持晶元溫度最高的溫度不變,於是這溫差小多了,採集的等效熱阻下來了。當然,具體計算可以拿出溫度差仔細算出來知道什麼毛病,總的指導思想是這樣的。所以,在機櫃頂部架一些擋板,這樣能夠有點改善。但是由於金桂內刀片式伺服器之間不可避免存在氣流短路現象,因此,仍存在短路現象,使冷氣流通道內有旁通過來的熱氣流,熱氣流通道內也會有旁通過來的冷氣流。 還有就是直接把換熱器安裝在機櫃內,在機櫃內或者機櫃旁制備冷空氣,可以有效減少摻混這樣現象,降低熱量採集過程溫差,可以減少風量、豐足,大幅降低風機電耗。所以,這是很重要一條,但是不能讓櫃子出水。 這樣有一種做法,就是採用背板冷卻,將空調系統熱換器安裝在裝載IT設備的機櫃上,根據機房內各個不同的機櫃實現按需供冷,避免局部熱。分布式製冷系統使空調系統的吸熱端更接近熱源。這是第一個減少採熱採集過程中的熱阻。 第二減少輸配過程中的熱阻,實際這個環節比如一條空調器,是空氣跟水的換熱,那麼空氣溫度是這樣的,水溫度是這樣的,就會看到有時候往往都不是平衡的,是帶三角形性質的,只要帶三角形性質,就浪費一部分溫差。所以,想法調整兩邊的流量,使得兩邊的溫差接近,可以有效的降低數配系統的等效熱阻,或者減少等效溫差。有時候說是由於我用背板,或者機櫃里的換熱器那裡面不是走水,無論是走二氧化碳,還是走氟利昂,這是機櫃內送派風溫度,這是熱管溫度,這是室外側進出口溫度,是這么一個過程,(如圖所示),還有一種換熱器,每排的熱管單獨連接,這時候室內室外的溫度就變小多了,盡管換熱面積一樣,它就強多了。當然,這樣會導致熱管布置起來要復雜,但是在二者之間,總有一個好的權衡去減少輸送過程的熱阻或者說降低它的溫差。 第三條就是到底我們用什麼樣的室外的自然冷源和怎麼把這自然冷源跟我的機械製冷有機的統一結合起來?因為有時候天熱還得開冷機,這二者之間能不能實現一個比較自然的轉換?我們現在看看到底把這個熱量往哪兒排,實際在空氣裡面並不是一個空氣的問題,咱們有三種溫度,一種就是空氣的干球溫度,像今天大概室外27、28度,是天氣預報說的溫度。直接換熱就是干球溫度。但是,如果我對外面拿冷卻塔噴水,就是濕球溫度,大概23、24度。比如到五一濕球溫度比干球溫度低的多,所以通過冷卻塔就可以降低濕球溫度,還可不可以再降低,還有一種就是間接蒸發冷卻,西部地區很多地方用它做空調,它可以把試問降到室外的露點溫度,像現在這個時候,北京的露點溫度低於20度了。 這是拿北京氣侯為例,藍的是全球的干球溫度,紅的是濕球溫度,綠的是全年的露點溫度的變化。所以,我要是安全露點溫度考慮問題,全年北京市5876小時低於20度的時間佔全年的67%,如果熱阻做好了,就只有10%幾的時間,做不好,15度的時候,露點溫度也能佔到77%的時間。所以這個比例還是挺大的。 那麼,怎麼跟製冷機統一起來,實現無縫連接,自然過渡呢?這是一個方案,包括幾部分,先說櫃子,剛才我講背板式的換熱,現在是上下的換熱,屋子裡的空氣26度,從這兒進入機櫃,兩組換熱器,一組一個管給19度,一個管給16度,經過兩種換熱,從26度到20度,經過發熱的伺服器,達到32度,然後經過兩組換熱器降溫,又變成26度,再回來,維持屋子裡的溫度是26度,不是靠屋子裡別地兒裝的孔,而是靠這個機櫃,屋子裡的溫度是由機櫃決定的,由於屋子裡的溫度是16度,露點溫度只有12、13度,我把物資弄密閉了,人也不怎麼進去,裡面沒有濕的事兒。然後,這四組換散熱器,拿熱管引出來,這四組是16、19、22、25度,然後這個水就是跟這熱管換熱,把熱量都帶到水裡去,所以從15恩度,漲到24度。然後,24度,如果室外是兩管,冷空氣不用開,直接經過間接冷卻塔就能夠把水溫降大15度,如果溫度再低,只要朝這風機跟這兒的轉換裝置,能夠維持我進入到換熱器全年只有15度。當室外溫度高到30度,露點溫度到18度,這時候冷卻塔還能起一點作用,能起1/3的冷量還從這兒出,不足了再拿冷風機降一部分。所以,這個冷風機是連續的就能夠使得冷風氣從10%的復合逐漸加到5%的復合。冷卻塔只要露點溫度在20度以下,總能起點作用。 這樣一個系統,這兒計算了一下,拿北京的氣象條件可以看出來,如果是這么一個機房,跟一般傳統的機房來比,咱們就直接取它一年用電量是百分之百,那麼即使沒有自然冷源,就是拿製冷機做,但是因為我減少了摻混,減少了數配能耗,能夠節能40%幾。如果用最好的間接冷卻方式,用電量只有23%,能夠節省70%的電量,所以有巨大的節能潛力。 按照這個思路,我們有一些機房的改造實例,這是清華大學圖書館的一個全校支持整個學老師、同學做研究的數據中心。它原來就是在這個屋子裡頭擺了一堆空調器,機器多了,熱量還大,所以追加了好幾台空調器。用了跟剛才這個圖差不多的方式,結果總機櫃裡面的風機降到7千瓦,這時候能效比從2.7漲到8.2,就只用原來1/3的能耗。最熱的時候,冷機都得開了,即使如此,能耗還能差一半。所以,全年下來總的能耗消耗能夠降低60%左右,這就是一個實際案例,這個還有一些遺憾的地方,就是做得不徹底,做得徹底了,還能夠進一步降低消耗量。 總結一下,就是數據中心排熱的空調實際上有巨大的節能潛力和節能空間。它的核心是機房的氣流組織怎麼採集熱量合理的空調器,其中幾個基本原則,一個就是盡可能避免不同的溫度的氣流摻混,我們現在對機櫃進行空調製冷的目的,不是對機房進行空調製冷,所以盡可能把冷源越貼近發熱體越好,充分的利用自然冷源,有各種不同的法子獲得不同溫度的,然後想法介紹能耗,這樣給出去的這些思路,今天講的某一兩個做法,實際在這個思路下發揮創新的精神還可以創造出好些各種各樣的方案,真正把數據中心排熱的空調能耗降下來。我們覺得完全按照目前大多數方式來比較,有可能把機房的空調節能達到70%以上,相當以機房用電量降低30%以上。剛才我聽領導講,國外發達國家比,機房的PUE到1.2,1.3那跟它機房的位置有關系。在不同的氣侯條件下,實際上抓好這幾條,以自然冷源為主,適當的加一點機械製冷的補充,解決一年裡面20%,25%的節能,完全可以把我們國家不同地方數據中心的空調能耗都有效的降下來,應該做的比發達國家,比美國還好,謝謝大家。

3、如何用PUE指標衡量機房能耗效率

當前,測量數據中心的能耗指標有兩種方法:Power Usage Effectiveness(電源使用效率,PUE)和Data Center Infrastructure Efficiency(數據中心基礎架構效率,DCIE)。這兩種方法都考慮了數據中心裡供電、散熱系統和IT設備所各自消耗的能量,得到了The Green Grid(綠色網格)組織的支持。這個組織是去年為了專門開發數據中心能效及生產力測量體系而組建的。The Green Grid 定義了這兩種測量方法的具體計算方式:
1. PUE = 數據中心總設備能耗/IT設備能耗,PUE是一個比率,基準是2,越接近1表明能效水平越好。
2. DCiE = IT設備能耗/數據中心總設備能耗x 100,DCiE是一個百分比值,數值越大越好。
根據The Green Grid,北京科蘭,測量數據中心中IT設備電耗的最有效的方法是測量機房PDU( power distribution units)的輸出電量,這個方法應該代表了數據中心裡向伺服器機櫃輸送的總電力。

4、機房系統怎麼展示wue與pue

PUE = 數據中心總設備能耗/IT設備能耗,PUE是一個比率,基準是2,越接近1表明能效水平越好。
測量數據中心的能耗指標Power Usage Effectiveness(電源使用效率,PUE)

5、數據處理(數據處理中的銀行卡中心、PUE值在1.5以上的雲計算數據中心除

PUE值是能耗指標。PUE值在1.5以上是非綠色,高能耗的計算中心,不鼓勵建設。

6、全國idc數據中心有多少

在中國,主要IDC由ISP建設:
電信:
根據451 Research的於2017年7月發布的最新全球十大數據中心公司排名信息來看,中國電信數據中心數量:400多個。
聯通:
在2017年6月的 第九屆中國雲計算大會上中國聯通雲數據總經理焦剛:中國聯通已經規劃布局超大型的雲數據中心12個,覆蓋196個地市,335個地市數據中心,總面積超過200平方米,總機架超過32萬架,出口帶寬60T,PUE小於1.5。
移動:
目前沒有看到中國移動的數據中心建設遠遠落後於電信和聯通,沒有找到具體的公開數據,不過有一些數據(CNNIC的互聯網發展報告)你可以參考:
1、國際出口帶寬:移動是電信的 1/3,是聯通的 1/2
2、IPv4地址數量:移動是電信的 1/3,是聯通的 1/2

---------------------
除了上述ISP的IDC,還有教育網,科研網等ISP接入商,他們也會在專有領域里建設自己的IDC機房
---------------------
隨著雲計算的發展,一些雲計算廠商也會自建機房。。和運營商合建機房。
---------------------
當然,並不是所有的數據中心都會對公眾開放服務。

7、PUE值是什麼意思

Power Usage Effectiveness的簡copy寫,是評價數據中心能源效率的指標,是數據中心消耗的所有能源與IT負載使用的能源之比
PUE = 數據中心總設備能耗/IT設備能耗,PUE是一個比值,基準是2,越接近1表明能效水平越好
PUE(PowerUsageEffectiveness,電源使用效率)值已經成為國際上比較通行的數據中心電力使用效率的衡量指標。PUE值是指數據中心消耗的所有能源與IT負載消耗的能源之比。PUE值越接近於1,表示一個數據中心的綠色化程度越高。

8、大型集中式數據中心的pue值一般設定為多少以下

按照國家發改委和工信部的要求,應該不高於1.6。

9、國內有年平均 PUE 低於 1.3 的數據中心嗎

PUE不大於1.4在空調技術上是可行的。制約PUE的,我認為,現階段主要是冷卻技術、空調技術、如何高效排熱的問題。

貼一個清華大學江億院士的演講:
各位來賓、各位專家、各位領導早上好!我好象是第一次參加綠色數據中心的技術大會,因為咱們不是搞計算機這行的,是搞空調,搞建築節能的,但是好象也慢慢把我們推到這個行業了。為什麼?是因為空調的能耗或者說派熱降溫的能耗在數據中心裡佔了比較大的比例。所以,剛才我聽前面這位領導講數據中心都快到了運行這個程度了,運行主要是能源消耗,能源消耗里就40%或者更多是空調的能耗。所以,怎麼能夠降低空調的能耗,一方面給國家的節能減排作貢獻,一方面也使我們數據行業產生更好的經濟效益,就變成重要的問題了,所以我今天跟大家匯報一下我們在這方面的想法跟體會。

從空調的特點來看,現在隨著計算機電子技術的發展,晶元技術都比原來高,主機的發熱度越來越大,這樣導致空調排熱成為這裡面大的部分。後面有一些細的發展狀況不說了,就直接看到空調里頭。現在統計大致的結果,對於中小型的數據中心大概PUE值都在2,或者以上,這是空調佔了一半或者還多的一個能源消耗。對大型的IDC機房管理做的比較好的,這時候空調效率相對比較高,但是也能佔到40%左右的能耗。

所以,降低數據中心的能耗可能一個是提高伺服器的使用效率,沒活兒的讓它歇著,一方面減少了空氣的運行能耗,當然,電源也有可以提高的技術。空調應該有很大的潛力,空調裡面的能耗由什麼構成?以前一想說製冷機,壓縮機耗電多,實際上壓縮機耗電在50%-60%左右,除了壓縮機之外,風機也能佔在40%或者更多的空調耗能。

現在的情況什麼樣?大概有這么幾塊:第一、因為全年製冷,所以絕大部分的數據中心製冷機都開了,這是一年來總的空調的考點狀況,可以看出冬天、夏天區別很少,北京、上海、廣州冷的地方,熱的地方區別很少,應該說冬天天涼了,北京空調越來越大幅度下來,這個變化也不大,所以全年度在這兒用。然後,有關發熱密度非常大,負責把這些熱量排走,所以循環風特別大。並且風吹的還厲害,不行把風量減少,降低送風溫度,但是當冷源溫度低於屋子裡溫度的時候,蒸發器就凝水,恨不得天天都出濕,出了濕又怕屋子裡太干,所以又有了一些加濕器,這邊除濕,那邊又得加濕,又得用電,冬天大冷的天還得製冷,這構成了現在數據中心,無論是大的,還是小的空調能源消耗高的主要問題。

有這樣問題是壞事兒,反過來又是好事兒。說明咱們在這兒的潛力特別大,有很大的潛力可以把空調能源消耗降下來。那麼,走哪條道?怎麼做?一聽說這個空調跟你們建築節能是一碼事,建築節能都抓圍護結構保溫,咱們整這個,圍護結構,效果非常小,或者無效果,為什麼?因為一個IDC密一點的機房一平米大概產熱量3-5千萬,通過圍護結構進入或者出去的熱量不會超過摺合在佔地面積上不會超過50瓦,所以,圍護結構的影響很小,就是1%,2%的影響。當然,通過一些技術,避免外牆直接太陽輻射,比來我這兒熱,再拿太陽照我,盡可能的密閉,別讓風進來,這是很重要的。可能有些專家說,風滲進來,有什麼不好,如果房子做的不密閉,就是不可控制的室外滲風,是涼快了,但是濕度下降了,夏天熱容器不好,而且由於室外的濕度變化大,我數據中心裏面希望濕度維持基本穩定不變,給我添加濕、除濕的麻煩事兒。因此,通過各方面應該把房子做密閉了,對目前來說不是保溫的事兒,而且密閉的事兒,密閉最重要。

那麼,怎麼把熱量排出去,馬上前幾年一些企業想辦法說既然冬天不開製冷機,而且外邊涼,最簡單的通風換氣吧,是通過涼風進來,把熱量排走,這是有點節能,但是恐怕數據中心這么做不太合適,為什麼?室外的灰塵贓,機器得干凈,濕度室外是變化的,夏天北京的一立方米空氣有2克的水汽,另外中國是燒煤的國家,70%的化石能源都來自於煤,燃煤就出硫,硫化物到室內,就會導致表面發生腐蝕現象,所以這是不行,您的冷卻系統是為主機服務的,要是有損於主機,無論是灰塵還是硫化物,還有濕度都會影響主機的壽命,這是絕對不能有的。因此,說就想法通過過濾消除灰塵,想法加濕、除濕改變濕度,想法脫硫,當把這些東西都架上,就發現投入的成本和能源消耗就不低了,而且維護管理的工作量立刻上去了,那麼這么大的數據中心要求高可靠性運行,於是這事兒有點別扭了。

還有通過熱交換把涼氣取回來,這個思路是挺好,對於一些小規模的計算中心,像一個大樓里的數據中心有時候還可以,但是對於大規模的機房是無法實現的,是因為直接走風道這么大發熱量得有多大的風量直接室外來回換氣,風道的體積在那兒擺著不合適,然後維護工作量非常大,尤其還是贓。所以,室外的低溫必須想法用上,是通過室外的新風,怎麼通過某種能量涼下來,最後把機器裡面的熱量帶走。

所以,整個的數據中心的空調跟咱們樓里的空調概念不一樣,它的核心事兒就是怎麼把晶元那兒出來的熱量通過某種介質傳熱,傳完之後,幾次交換,最後導到室外去就這么一個任務。所以,這時候根本目標就是讓晶元的溫度不要超過標准溫度,然後把這個溫度排出來。這樣晶元表面溫度和冷源溫度的差跟熱阻成正比,就是怎麼把這個等效熱阻降低了核心的事兒就變成了這么一個問題。溫差小就是如果我晶元溫度不許超過40度,如果我的溫差是20度,只要室外溫度低於20度,我就不用開冷空氣就可以把熱量排走,所以就要減少等效熱阻。那麼,這個等效熱阻由什麼構成?發現就像咱們的一個網路,三個電阻,三個等效熱阻,哪三個過程?一個就是晶元跟空氣之間的換熱環節,這個差越大,溫差就越大,比如我可以取平均溫度,等效熱阻就是這塊面積除以熱量,第一個環節就是容器跟晶元表面換熱的環節。第二個環節,比如說我有一個精密空調跟水,或者室外的冷水換熱,這冷水跟容器之間的換熱環節,我們叫輸送與換熱熱阻。第三個環節,循環介質與冷源之間換氣,叫做冷源換熱熱阻。比如說室內溫度到20度,實際只欠10度的溫差,這時候冷空機提供的活兒就是這10度的溫差。所以,把熱阻減少了,無論是用自然冷源還是開冷風機都可以降低功耗。因此,核心的問題就是把這三個環節的熱阻降下來。所以,就三個關鍵,第一、降低熱量採集過程的熱阻,同時不增加風機電耗。第二、降低熱量傳輸過程中的熱阻,同時不增加傳輸電耗。第三、找到溫度更低的自然冷源,但是別破壞環境。

下面逐條看,採集過程中的熱阻,實際的採集熱阻,除了空氣跟晶元換熱之外,還有相當大的消耗是機房裡面冷風跟熱風的互相攙混,製冷機就是把冷風熱的溫度分開,分出冷熱風,這個屋子裡面又沒地兒跑,又攙混起來了,所以避免冷風熱機的攙混。比如說要是給定晶元溫度,當攙混小的時候,回風溫度可以更緊的接近晶元,如果我恆定晶元溫度回風少的時候,這樣就可以更大程度的利用這個資源。有一些實測的數據,是在大的IC機房裡實測的,大家可以看出來,比如冷通道進來,從機房送出來應該這兒是16點幾度,到這兒怎麼就能30多度呢?它這兒上面還有一塊擋,這30多度是哪兒來的?就是因為部分的過了伺服器之後,伺服器裡面有空檔,空檔的熱風又滲回來了,熱風跟這些東西攙混到這些地兒,能到35度。為了保證上面伺服器的這些效果,於是就得降低送風溫度,為了保證上面差不多,結果把這個溫差就拉大了,導致整個的冷交熱的增加。所以,這兒看著排風有40度的,這些排風35、36度,總的到空調下一看,派風溫度才28度,怎麼降下來了?就是涼風過去跟熱風攙和起來了,這樣晶元大概在45度以上。如果避免了這些混合之後,就可以把回風溫度很容易提高到35度,輸送溫度也可以提高到20度,保持晶元溫度最高的溫度不變,於是這溫差小多了,採集的等效熱阻下來了。當然,具體計算可以拿出溫度差仔細算出來知道什麼毛病,總的指導思想是這樣的。所以,在機櫃頂部架一些擋板,這樣能夠有點改善。但是由於金桂內刀片式伺服器之間不可避免存在氣流短路現象,因此,仍存在短路現象,使冷氣流通道內有旁通過來的熱氣流,熱氣流通道內也會有旁通過來的冷氣流。

還有就是直接把換熱器安裝在機櫃內,在機櫃內或者機櫃旁制備冷空氣,可以有效減少摻混這樣現象,降低熱量採集過程溫差,可以減少風量、豐足,大幅降低風機電耗。所以,這是很重要一條,但是不能讓櫃子出水。

這樣有一種做法,就是採用背板冷卻,將空調系統熱換器安裝在裝載IT設備的機櫃上,根據機房內各個不同的機櫃實現按需供冷,避免局部熱。分布式製冷系統使空調系統的吸熱端更接近熱源。這是第一個減少採熱採集過程中的熱阻。

第二減少輸配過程中的熱阻,實際這個環節比如一條空調器,是空氣跟水的換熱,那麼空氣溫度是這樣的,水溫度是這樣的,就會看到有時候往往都不是平衡的,是帶三角形性質的,只要帶三角形性質,就浪費一部分溫差。所以,想法調整兩邊的流量,使得兩邊的溫差接近,可以有效的降低數配系統的等效熱阻,或者減少等效溫差。有時候說是由於我用背板,或者機櫃里的換熱器那裡面不是走水,無論是走二氧化碳,還是走氟利昂,這是機櫃內送派風溫度,這是熱管溫度,這是室外側進出口溫度,是這么一個過程,(如圖所示),還有一種換熱器,每排的熱管單獨連接,這時候室內室外的溫度就變小多了,盡管換熱面積一樣,它就強多了。當然,這樣會導致熱管布置起來要復雜,但是在二者之間,總有一個好的權衡去減少輸送過程的熱阻或者說降低它的溫差。

第三條就是到底我們用什麼樣的室外的自然冷源和怎麼把這自然冷源跟我的機械製冷有機的統一結合起來?因為有時候天熱還得開冷機,這二者之間能不能實現一個比較自然的轉換?我們現在看看到底把這個熱量往哪兒排,實際在空氣裡面並不是一個空氣的問題,咱們有三種溫度,一種就是空氣的干球溫度,像今天大概室外27、28度,是天氣預報說的溫度。直接換熱就是干球溫度。但是,如果我對外面拿冷卻塔噴水,就是濕球溫度,大概23、24度。比如到五一濕球溫度比干球溫度低的多,所以通過冷卻塔就可以降低濕球溫度,還可不可以再降低,還有一種就是間接蒸發冷卻,西部地區很多地方用它做空調,它可以把試問降到室外的露點溫度,像現在這個時候,北京的露點溫度低於20度了。

這是拿北京氣侯為例,藍的是全球的干球溫度,紅的是濕球溫度,綠的是全年的露點溫度的變化。所以,我要是安全露點溫度考慮問題,全年北京市5876小時低於20度的時間佔全年的67%,如果熱阻做好了,就只有10%幾的時間,做不好,15度的時候,露點溫度也能佔到77%的時間。所以這個比例還是挺大的。

那麼,怎麼跟製冷機統一起來,實現無縫連接,自然過渡呢?這是一個方案,包括幾部分,先說櫃子,剛才我講背板式的換熱,現在是上下的換熱,屋子裡的空氣26度,從這兒進入機櫃,兩組換熱器,一組一個管給19度,一個管給16度,經過兩種換熱,從26度到20度,經過發熱的伺服器,達到32度,然後經過兩組換熱器降溫,又變成26度,再回來,維持屋子裡的溫度是26度,不是靠屋子裡別地兒裝的孔,而是靠這個機櫃,屋子裡的溫度是由機櫃決定的,由於屋子裡的溫度是16度,露點溫度只有12、13度,我把物資弄密閉了,人也不怎麼進去,裡面沒有濕的事兒。然後,這四組換散熱器,拿熱管引出來,這四組是16、19、22、25度,然後這個水就是跟這熱管換熱,把熱量都帶到水裡去,所以從15恩度,漲到24度。然後,24度,如果室外是兩管,冷空氣不用開,直接經過間接冷卻塔就能夠把水溫降大15度,如果溫度再低,只要朝這風機跟這兒的轉換裝置,能夠維持我進入到換熱器全年只有15度。當室外溫度高到30度,露點溫度到18度,這時候冷卻塔還能起一點作用,能起1/3的冷量還從這兒出,不足了再拿冷風機降一部分。所以,這個冷風機是連續的就能夠使得冷風氣從10%的復合逐漸加到5%的復合。冷卻塔只要露點溫度在20度以下,總能起點作用。

這樣一個系統,這兒計算了一下,拿北京的氣象條件可以看出來,如果是這么一個機房,跟一般傳統的機房來比,咱們就直接取它一年用電量是百分之百,那麼即使沒有自然冷源,就是拿製冷機做,但是因為我減少了摻混,減少了數配能耗,能夠節能40%幾。如果用最好的間接冷卻方式,用電量只有23%,能夠節省70%的電量,所以有巨大的節能潛力。

按照這個思路,我們有一些機房的改造實例,這是清華大學圖書館的一個全校支持整個學老師、同學做研究的數據中心。它原來就是在這個屋子裡頭擺了一堆空調器,機器多了,熱量還大,所以追加了好幾台空調器。用了跟剛才這個圖差不多的方式,結果總機櫃裡面的風機降到7千瓦,這時候能效比從2.7漲到8.2,就只用原來1/3的能耗。最熱的時候,冷機都得開了,即使如此,能耗還能差一半。所以,全年下來總的能耗消耗能夠降低60%左右,這就是一個實際案例,這個還有一些遺憾的地方,就是做得不徹底,做得徹底了,還能夠進一步降低消耗量。

總結一下,就是數據中心排熱的空調實際上有巨大的節能潛力和節能空間。它的核心是機房的氣流組織怎麼採集熱量合理的空調器,其中幾個基本原則,一個就是盡可能避免不同的溫度的氣流摻混,我們現在對機櫃進行空調製冷的目的,不是對機房進行空調製冷,所以盡可能把冷源越貼近發熱體越好,充分的利用自然冷源,有各種不同的法子獲得不同溫度的,然後想法介紹能耗,這樣給出去的這些思路,今天講的某一兩個做法,實際在這個思路下發揮創新的精神還可以創造出好些各種各樣的方案,真正把數據中心排熱的空調能耗降下來。我們覺得完全按照目前大多數方式來比較,有可能把機房的空調節能達到70%以上,相當以機房用電量降低30%以上。剛才我聽領導講,國外發達國家比,機房的PUE到1.2,1.3那跟它機房的位置有關系。在不同的氣侯條件下,實際上抓好這幾條,以自然冷源為主,適當的加一點機械製冷的補充,解決一年裡面20%,25%的節能,完全可以把我們國家不同地方數據中心的空調能耗都有效的降下來,應該做的比發達國家,比美國還好,謝謝大家。

與idc機房pue值相關的知識