1、影響數據中心的PUE值有哪些要素
PUE不大於1.4在空調技術上是可行的。制約PUE的,我認為,現階段主要是冷卻技術、空調技術、如何高效排熱的問題。 貼一個清華大學江億院士的演講: 各位來賓、各位專家、各位領導早上好!我好象是第一次參加綠色數據中心的技術大會,因為咱們不是搞計算機這行的,是搞空調,搞建築節能的,但是好象也慢慢把我們推到這個行業了。為什麼?是因為空調的能耗或者說派熱降溫的能耗在數據中心裡佔了比較大的比例。所以,剛才我聽前面這位領導講數據中心都快到了運行這個程度了,運行主要是能源消耗,能源消耗里就40%或者更多是空調的能耗。所以,怎麼能夠降低空調的能耗,一方面給國家的節能減排作貢獻,一方面也使我們數據行業產生更好的經濟效益,就變成重要的問題了,所以我今天跟大家匯報一下我們在這方面的想法跟體會。 從空調的特點來看,現在隨著計算機電子技術的發展,晶元技術都比原來高,主機的發熱度越來越大,這樣導致空調排熱成為這裡面大的部分。後面有一些細的發展狀況不說了,就直接看到空調里頭。現在統計大致的結果,對於中小型的數據中心大概PUE值都在2,或者以上,這是空調佔了一半或者還多的一個能源消耗。對大型的IDC機房管理做的比較好的,這時候空調效率相對比較高,但是也能佔到40%左右的能耗。 所以,降低數據中心的能耗可能一個是提高伺服器的使用效率,沒活兒的讓它歇著,一方面減少了空氣的運行能耗,當然,電源也有可以提高的技術。空調應該有很大的潛力,空調裡面的能耗由什麼構成?以前一想說製冷機,壓縮機耗電多,實際上壓縮機耗電在50%-60%左右,除了壓縮機之外,風機也能佔在40%或者更多的空調耗能。 現在的情況什麼樣?大概有這么幾塊:第一、因為全年製冷,所以絕大部分的數據中心製冷機都開了,這是一年來總的空調的考點狀況,可以看出冬天、夏天區別很少,北京、上海、廣州冷的地方,熱的地方區別很少,應該說冬天天涼了,北京空調越來越大幅度下來,這個變化也不大,所以全年度在這兒用。然後,有關發熱密度非常大,負責把這些熱量排走,所以循環風特別大。並且風吹的還厲害,不行把風量減少,降低送風溫度,但是當冷源溫度低於屋子裡溫度的時候,蒸發器就凝水,恨不得天天都出濕,出了濕又怕屋子裡太干,所以又有了一些加濕器,這邊除濕,那邊又得加濕,又得用電,冬天大冷的天還得製冷,這構成了現在數據中心,無論是大的,還是小的空調能源消耗高的主要問題。 有這樣問題是壞事兒,反過來又是好事兒。說明咱們在這兒的潛力特別大,有很大的潛力可以把空調能源消耗降下來。那麼,走哪條道?怎麼做?一聽說這個空調跟你們建築節能是一碼事,建築節能都抓圍護結構保溫,咱們整這個,圍護結構,效果非常小,或者無效果,為什麼?因為一個IDC密一點的機房一平米大概產熱量3-5千萬,通過圍護結構進入或者出去的熱量不會超過摺合在佔地面積上不會超過50瓦,所以,圍護結構的影響很小,就是1%,2%的影響。當然,通過一些技術,避免外牆直接太陽輻射,比來我這兒熱,再拿太陽照我,盡可能的密閉,別讓風進來,這是很重要的。可能有些專家說,風滲進來,有什麼不好,如果房子做的不密閉,就是不可控制的室外滲風,是涼快了,但是濕度下降了,夏天熱容器不好,而且由於室外的濕度變化大,我數據中心裏面希望濕度維持基本穩定不變,給我添加濕、除濕的麻煩事兒。因此,通過各方面應該把房子做密閉了,對目前來說不是保溫的事兒,而且密閉的事兒,密閉最重要。 那麼,怎麼把熱量排出去,馬上前幾年一些企業想辦法說既然冬天不開製冷機,而且外邊涼,最簡單的通風換氣吧,是通過涼風進來,把熱量排走,這是有點節能,但是恐怕數據中心這么做不太合適,為什麼?室外的灰塵贓,機器得干凈,濕度室外是變化的,夏天北京的一立方米空氣有2克的水汽,另外中國是燒煤的國家,70%的化石能源都來自於煤,燃煤就出硫,硫化物到室內,就會導致表面發生腐蝕現象,所以這是不行,您的冷卻系統是為主機服務的,要是有損於主機,無論是灰塵還是硫化物,還有濕度都會影響主機的壽命,這是絕對不能有的。因此,說就想法通過過濾消除灰塵,想法加濕、除濕改變濕度,想法脫硫,當把這些東西都架上,就發現投入的成本和能源消耗就不低了,而且維護管理的工作量立刻上去了,那麼這么大的數據中心要求高可靠性運行,於是這事兒有點別扭了。 還有通過熱交換把涼氣取回來,這個思路是挺好,對於一些小規模的計算中心,像一個大樓里的數據中心有時候還可以,但是對於大規模的機房是無法實現的,是因為直接走風道這么大發熱量得有多大的風量直接室外來回換氣,風道的體積在那兒擺著不合適,然後維護工作量非常大,尤其還是贓。所以,室外的低溫必須想法用上,是通過室外的新風,怎麼通過某種能量涼下來,最後把機器裡面的熱量帶走。 所以,整個的數據中心的空調跟咱們樓里的空調概念不一樣,它的核心事兒就是怎麼把晶元那兒出來的熱量通過某種介質傳熱,傳完之後,幾次交換,最後導到室外去就這么一個任務。所以,這時候根本目標就是讓晶元的溫度不要超過標准溫度,然後把這個溫度排出來。這樣晶元表面溫度和冷源溫度的差跟熱阻成正比,就是怎麼把這個等效熱阻降低了核心的事兒就變成了這么一個問題。溫差小就是如果我晶元溫度不許超過40度,如果我的溫差是20度,只要室外溫度低於20度,我就不用開冷空氣就可以把熱量排走,所以就要減少等效熱阻。那麼,這個等效熱阻由什麼構成?發現就像咱們的一個中國絡,三個電阻,三個等效熱阻,哪三個過程?一個就是晶元跟空氣之間的換熱環節,這個差越大,溫差就越大,比如我可以取平均溫度,等效熱阻就是這塊面積除以熱量,第一個環節就是容器跟晶元表面換熱的環節。第二個環節,比如說我有一個精密空調跟水,或者室外的冷水換熱,這冷水跟容器之間的換熱環節,我們叫輸送與換熱熱阻。第三個環節,循環介質與冷源之間換氣,叫做冷源換熱熱阻。比如說室內溫度到20度,實際只欠10度的溫差,這時候冷空機提供的活兒就是這10度的溫差。所以,把熱阻減少了,無論是用自然冷源還是開冷風機都可以降低功耗。因此,核心的問題就是把這三個環節的熱阻降下來。所以,就三個關鍵,第一、降低熱量採集過程的熱阻,同時不增加風機電耗。第二、降低熱量傳輸過程中的熱阻,同時不增加傳輸電耗。第三、找到溫度更低的自然冷源,但是別破壞環境。 下面逐條看,採集過程中的熱阻,實際的採集熱阻,除了空氣跟晶元換熱之外,還有相當大的消耗是機房裡面冷風跟熱風的互相攙混,製冷機就是把冷風熱的溫度分開,分出冷熱風,這個屋子裡面又沒地兒跑,又攙混起來了,所以避免冷風熱機的攙混。比如說要是給定晶元溫度,當攙混小的時候,回風溫度可以更緊的接近晶元,如果我恆定晶元溫度回風少的時候,這樣就可以更大程度的利用這個資源。有一些實測的數據,是在大的IC機房裡實測的,大家可以看出來,比如冷通道進來,從機房送出來應該這兒是16點幾度,到這兒怎麼就能30多度呢?它這兒上面還有一塊擋,這30多度是哪兒來的?就是因為部分的過了伺服器之後,伺服器裡面有空檔,空檔的熱風又滲回來了,熱風跟這些東西攙混到這些地兒,能到35度。為了保證上面伺服器的這些效果,於是就得降低送風溫度,為了保證上面差不多,結果把這個溫差就拉大了,導致整個的冷交熱的增加。所以,這兒看著排風有40度的,這些排風35、36度,總的到空調下一看,派風溫度才28度,怎麼降下來了?就是涼風過去跟熱風攙和起來了,這樣晶元大概在45度以上。如果避免了這些混合之後,就可以把回風溫度很容易提高到35度,輸送溫度也可以提高到20度,保持晶元溫度最高的溫度不變,於是這溫差小多了,採集的等效熱阻下來了。當然,具體計算可以拿出溫度差仔細算出來知道什麼毛病,總的指導思想是這樣的。所以,在機櫃頂部架一些擋板,這樣能夠有點改善。但是由於金桂內刀片式伺服器之間不可避免存在氣流短路現象,因此,仍存在短路現象,使冷氣流通道內有旁通過來的熱氣流,熱氣流通道內也會有旁通過來的冷氣流。 還有就是直接把換熱器安裝在機櫃內,在機櫃內或者機櫃旁制備冷空氣,可以有效減少摻混這樣現象,降低熱量採集過程溫差,可以減少風量、豐足,大幅降低風機電耗。所以,這是很重要一條,但是不能讓櫃子出水。 這樣有一種做法,就是採用背板冷卻,將空調系統熱換器安裝在裝載IT設備的機櫃上,根據機房內各個不同的機櫃實現按需供冷,避免局部熱。分布式製冷系統使空調系統的吸熱端更接近熱源。這是第一個減少採熱採集過程中的熱阻。 第二減少輸配過程中的熱阻,實際這個環節比如一條空調器,是空氣跟水的換熱,那麼空氣溫度是這樣的,水溫度是這樣的,就會看到有時候往往都不是平衡的,是帶三角形性質的,只要帶三角形性質,就浪費一部分溫差。所以,想法調整兩邊的流量,使得兩邊的溫差接近,可以有效的降低數配系統的等效熱阻,或者減少等效溫差。有時候說是由於我用背板,或者機櫃里的換熱器那裡面不是走水,無論是走二氧化碳,還是走氟利昂,這是機櫃內送派風溫度,這是熱管溫度,這是室外側進出口溫度,是這么一個過程,(如圖所示),還有一種換熱器,每排的熱管單獨連接,這時候室內室外的溫度就變小多了,盡管換熱面積一樣,它就強多了。當然,這樣會導致熱管布置起來要復雜,但是在二者之間,總有一個好的權衡去減少輸送過程的熱阻或者說降低它的溫差。 第三條就是到底我們用什麼樣的室外的自然冷源和怎麼把這自然冷源跟我的機械製冷有機的統一結合起來?因為有時候天熱還得開冷機,這二者之間能不能實現一個比較自然的轉換?我們現在看看到底把這個熱量往哪兒排,實際在空氣裡面並不是一個空氣的問題,咱們有三種溫度,一種就是空氣的干球溫度,像今天大概室外27、28度,是天氣預報說的溫度。直接換熱就是干球溫度。但是,如果我對外面拿冷卻塔噴水,就是濕球溫度,大概23、24度。比如到五一濕球溫度比干球溫度低的多,所以通過冷卻塔就可以降低濕球溫度,還可不可以再降低,還有一種就是間接蒸發冷卻,西部地區很多地方用它做空調,它可以把試問降到室外的露點溫度,像現在這個時候,北京的露點溫度低於20度了。 這是拿北京氣侯為例,藍的是全球的干球溫度,紅的是濕球溫度,綠的是全年的露點溫度的變化。所以,我要是安全露點溫度考慮問題,全年北京市5876小時低於20度的時間佔全年的67%,如果熱阻做好了,就只有10%幾的時間,做不好,15度的時候,露點溫度也能佔到77%的時間。所以這個比例還是挺大的。 那麼,怎麼跟製冷機統一起來,實現無縫連接,自然過渡呢?這是一個方案,包括幾部分,先說櫃子,剛才我講背板式的換熱,現在是上下的換熱,屋子裡的空氣26度,從這兒進入機櫃,兩組換熱器,一組一個管給19度,一個管給16度,經過兩種換熱,從26度到20度,經過發熱的伺服器,達到32度,然後經過兩組換熱器降溫,又變成26度,再回來,維持屋子裡的溫度是26度,不是靠屋子裡別地兒裝的孔,而是靠這個機櫃,屋子裡的溫度是由機櫃決定的,由於屋子裡的溫度是16度,露點溫度只有12、13度,我把物資弄密閉了,人也不怎麼進去,裡面沒有濕的事兒。然後,這四組換散熱器,拿熱管引出來,這四組是16、19、22、25度,然後這個水就是跟這熱管換熱,把熱量都帶到水裡去,所以從15恩度,漲到24度。然後,24度,如果室外是兩管,冷空氣不用開,直接經過間接冷卻塔就能夠把水溫降大15度,如果溫度再低,只要朝這風機跟這兒的轉換裝置,能夠維持我進入到換熱器全年只有15度。當室外溫度高到30度,露點溫度到18度,這時候冷卻塔還能起一點作用,能起1/3的冷量還從這兒出,不足了再拿冷風機降一部分。所以,這個冷風機是連續的就能夠使得冷風氣從10%的復合逐漸加到5%的復合。冷卻塔只要露點溫度在20度以下,總能起點作用。 這樣一個系統,這兒計算了一下,拿北京的氣象條件可以看出來,如果是這么一個機房,跟一般傳統的機房來比,咱們就直接取它一年用電量是百分之百,那麼即使沒有自然冷源,就是拿製冷機做,但是因為我減少了摻混,減少了數配能耗,能夠節能40%幾。如果用最好的間接冷卻方式,用電量只有23%,能夠節省70%的電量,所以有巨大的節能潛力。 按照這個思路,我們有一些機房的改造實例,這是清華大學圖書館的一個全校支持整個學老師、同學做研究的數據中心。它原來就是在這個屋子裡頭擺了一堆空調器,機器多了,熱量還大,所以追加了好幾台空調器。用了跟剛才這個圖差不多的方式,結果總機櫃裡面的風機降到7千瓦,這時候能效比從2.7漲到8.2,就只用原來1/3的能耗。最熱的時候,冷機都得開了,即使如此,能耗還能差一半。所以,全年下來總的能耗消耗能夠降低60%左右,這就是一個實際案例,這個還有一些遺憾的地方,就是做得不徹底,做得徹底了,還能夠進一步降低消耗量。 總結一下,就是數據中心排熱的空調實際上有巨大的節能潛力和節能空間。它的核心是機房的氣流組織怎麼採集熱量合理的空調器,其中幾個基本原則,一個就是盡可能避免不同的溫度的氣流摻混,我們現在對機櫃進行空調製冷的目的,不是對機房進行空調製冷,所以盡可能把冷源越貼近發熱體越好,充分的利用自然冷源,有各種不同的法子獲得不同溫度的,然後想法介紹能耗,這樣給出去的這些思路,今天講的某一兩個做法,實際在這個思路下發揮創新的精神還可以創造出好些各種各樣的方案,真正把數據中心排熱的空調能耗降下來。我們覺得完全按照目前大多數方式來比較,有可能把機房的空調節能達到70%以上,相當以機房用電量降低30%以上。剛才我聽領導講,國外發達國家比,機房的PUE到1.2,1.3那跟它機房的位置有關系。在不同的氣侯條件下,實際上抓好這幾條,以自然冷源為主,適當的加一點機械製冷的補充,解決一年裡面20%,25%的節能,完全可以把我們國家不同地方數據中心的空調能耗都有效的降下來,應該做的比發達國家,比美國還好,謝謝大家。
2、如何提高PUE值 數據中心能耗詳解
P
3、集裝箱數據中心的集裝箱數據中心的特點
高密度:可容納高密度計算設備,相同空間內可容納六倍於傳統數據中心的機櫃數量;
低PUE:由於採用了全封閉、冷熱通道分離,減少了冷空氣的消耗,令電力使用率大大提高;HP集裝箱數據中心的PUE可低於1.25,而世紀互聯由於採用了FreeCooling技術,PUE值可降至1.07;
快速部署:集裝箱數據中心不需要企業再經過空間租用、土地申請、機房建設、硬體部署等周期,可大大縮短部署周期。以往傳統數據中心至少兩年才能完成的事情,HP、SUN可做到「美國6周、全球12周」交貨,世紀互聯也可做到「國內1.5個月」供貨的快速反應,為企業快速增加存儲和計算能力。
一站式專業服務:數據中心屬於專業產品,設計、製造、硬體都需要專業服務與運營的保障,HP、SUN集裝箱數據中心融合了硬體廠商的硬體製造經驗,世紀互聯則融入了自己十年的IDC設計、建設與運營經驗,一站式專業服務為客戶解決大量籌備與外包問題。
集裝箱數據中心的這些特點,令其可作為數據中心構建的標准模塊,為企業在短時間內完成數據中心容量的擴展;同時,也可作為單獨使用的模塊,在企業主數據中心之外建立獨立的災備站點,或用於軍事項目、油氣公司、大型活動的戶外作業,是應對於企業級數據中心快速、靈活需求的最佳解決方案。 信息化的推行,令數據處理能力之於企業越來越像空氣,不可或缺;同時,不斷由業務、運營、網路化等環節產生的數據處理需求,也在對企業級數據中心的海量存儲、計算處理產生越來越強烈的挑戰。
據權威機構統計,到了2010年,醫學圖象將佔世界存儲量的30%;到2010年,超過一半的證券交易將是規則系統運算完成的;到2010年,全球74%的移動用戶將生活在新興經濟中……這一切,當前的企業級數據中心能夠應對嗎?答案顯然不容樂觀。
據統計,由於受到數據中心能力不足的挑戰,超過70%的全球1000企業都將在今後5年內對數據中心的設備進行更新與擴展;而IDC在評估了7,000個企業數據中心(25ksq.ft.)之後也發現,大部分數據中心都是在刀片出現之前設計,使用時間已超過7年,相關硬體、設施等方面急需改善。
目前國內數據中心也存在可持續發展能力不足的問題,通過對國內大型企業數據中心的調研發現,目前國內企業級數據中心普遍存在利用率低,災備建設薄弱,高能耗等典型問題,同時,電商、金融等行業數據集中化的發展趨勢,也在對數據中心計算能力提出更高挑戰。 數據中心對電力的消耗量驚人,數據中心管理者非常清楚,電力消耗是數據中心運營中最龐大的一筆開支。
而且,隨著數據處理能力在信息化中扮演著越來越重要的角色,數據中心能耗問題也日益突出。據統計,數據中心的電力消耗在過去10年增長了5倍;一台1U伺服器的使用成本高達采購成本的2倍,並且還在繼續增加;能源價格飆升導致運營成本同比增加。
但同時,大量的電力在數據中心的使用率一直很低,PUE值是用來衡量數據中心能耗比的重要指標,它反映了數據中心供電有多少被真正用於伺服器計算。最好的結果是PUE為1,有多少供電全部都用於計算。但實際上,這是不可能的,為保證伺服器正常穩定工作,需要製冷,需要對伺服器進行散熱。此外,電源轉換、照明、監控安防等需要消耗電力。
根據HP的一項統計,電力在數據中心的消耗僅有33%供給了IT負荷,散熱負荷卻高達63%,也就是說,用於空調冷卻的的電力已經等於或超過了計算用的電力。
PUE值的衡量標準是越接近1越好,而當前傳統數據中心PUE值通常在1.8~2.2之間,管理很好的專業數據中心可達到1.5左右,但仍存在大量非計算使用的電力消耗,這令不斷擴大的IT需求與能源效率之間的矛盾越來越尖銳。 矛盾日益突出,改造勢在必行,然而數據中心改造談何容易?如何實現快速改造,令數據中心能力提升速度與飛速發展的網路經濟相適應?如何能夠在寸土寸金的都市,在現有數據中心基礎上,不擴大面積或現有建築空間的基礎上拓展業務?如何能夠擺脫高能耗,降低PUE值,完成節能減排、降低成本指標?
以高密度快速提升計算能力,以全封閉降低能源使用率——集裝箱數據中心,這是HP、IBM、SUN、Google、微軟等頂級IT硬體商、服務商共同的解決方案,也是專業IDC服務商世紀互聯率先在國內最新推行的解決之道。
4、機房節能降耗的措施
01、選用低能耗的設備
IDC機房的能耗大戶是伺服器、數據存儲器等數據處理設備,數據設備的用電量大,就需要更多的UPS來供電,UPS在電能轉換中需耗費一定的能量,電能在傳遞分配中也有損失。數據設備的用電,90%以上最終轉變為熱量,就需要更多的空調來散熱。據統計,數據設備的功耗每增加100W,在電能轉換和分配傳遞上會損耗10~20W,空調製冷增加功耗120W,因此數據設備的能耗被放大了數倍。在滿足業務需求或同樣處理存儲能力的設備中,選用低功率無疑是節能減排的關鍵。
02、選用合適的供電方案和供電設備
IDC機房固然重要,但不是說IDC機房內的所有設備都同等重要,都需要99.9999%以上的供電可用性。因此,對IDC機房內的用電設備進行有效合理的區分,制訂不同等級的供電可用性和供電方案,避免無用的供電容量和供電設備冗餘,既減少了供電系統的投資,也降低了運行能耗。
03、空調機組合適的製冷方式和運行模式
雖然空調機組的運行需要消耗能源,但不同的製冷方式消耗的能源是不一樣的。製冷劑的不同、運行模式的不同都可能產生可觀的節能效果。比如,北方地區冬季的冷空氣可以用來機房製冷(非直接引進室外空氣),西北地區的乾燥空氣可以用來製冷,大樓的冷凍水比機組本身的製冷劑更節能等。
04、合理布局機房和組織氣流
IDC機房內的發熱設備和散熱設備並不是一一對應的,熱是通過機房內的氣流帶走的。不合適的機房布局和設備安裝方式,妨礙了氣流的運動,降低了散熱效果,消耗了更多的能源;超遠距離,超強的送風需要更大功率的風機,消耗了更多能源。因此,不是將足夠製冷量的空調和發熱設備堆積在一個機房就解決了熱平衡問題。
05、特殊設備特殊對待
IDC機房的主設備不一定是同樣的發熱,不同時代的伺服器發熱差別很大,用同樣的散熱方式就會冷熱不均,不僅消耗了更多的能源而且帶來了其他問題。對於高密度發熱設備,應該採用特殊的散熱機櫃和散熱方式,這樣不至於為了照顧個別的高發熱設備而機房的溫度太低。
06、防止跑冒滴漏
IDC機房密封不嚴,隔熱效果不好,也是能源消耗的重點。IDC機房的門窗應該密閉並用良好的隔熱材料,牆壁、地板、天花板應該進行隔熱處理,特別是南方地區,夏季高溫期長,外牆傳遞的熱量不可小看。這就是有些IDC機房冬季沒有問題,夏季溫度偏高的主要原因。在不同季節,主設備的發熱量通常不會差別太大。
以上幾個原則,不僅適用於新機房的建設指導,同樣也適用於老機房的節能改造的指導。區別是新機房建設是在一張白紙上畫畫,可以全面應用6個原則;老機房改造則要基於現有的各項事實,現實的情況不允許依葫蘆畫瓢,應該先調查清楚現有IDC機房的具體情況,再根據6個節能原則制訂針對性的改造方案。