工業與IT的融合:數據中心平地起

馬克思經典理論告訴我們:下層基礎決定上層建築。數據中心的下層基礎是物理基礎設施,上層建築是IT系統。物理基礎設施包括建築裝修、供配電、製冷、集中監控、消防、佈線等系統,一旦這些下層基礎出了問題,將極大地影響到由服務器設備、網絡設備、通信設備、存儲設備以及管理軟件等IT系統構成的上層建築。
 
問題:舊瓶裝不了新酒
 
很多機構或企業的機房及其配套電氣用了十幾年,相對於安放其中的最新IT設備是一箇舊瓶,如今,工業的舊瓶已難以裝下IT的新酒。
 
過去的機房多設在辦公樓內,上世紀90年代,隨着客戶端/服務器計算模式的普及,人們開始使用廉價的網絡設備,加上標準的網絡佈線,採用分層設計,將服務器單獨放在公司的一間特殊的房間中,其規模多爲200-300平米。隨着IT設備越來越多,對業務連續性與安全的要求越來越高,這樣的機房已無法作爲一個標準的數據中心來使用。
 
中國石油集團東方物探研究院的數據中心有過一段波折,這是一個基礎設施影響IT系統的典型案例。在2002年,因爲業務發展的需要,東方物探研究院的數據中心被遷至城裏相對比較繁華的地方重建,2003年數據中心搬遷完成之後,不到一年的時間就出現了四大問題,以下是其計算機服務中心副主任兼信息辦主任易良坤的總結:
 
“第一,配電。當初設計時認爲用電量不是很大,所以我們搬進去時,就只有一臺1000千伏安變壓器和一臺800千伏安的變壓器,想就能把整個樓給帶起來了。發展到今天,我們經過兩期的整容改造,現在整個樓的供電變壓器容量已經達到了7800千伏安。
 
第二,空調製冷。有兩個事情,一是,我們把空調放到相鄰樓的樓頂。而那個樓建時並沒有考慮到樓頂會放一些震動物體,結果放上去後,那個樓就經常漏水,長期得不到解決。二是,隨着我們單位計算機的發展,空調室外機數量的問題。現在的空調室外機已達到30多個,擺放起來有很大的問題。爲此我們在樓的東側設置了一個空調室外機架,把室外機的安置問題解決了。但是另外一個問題又凸顯出來了,因爲機房樓旁邊就是家屬區,噪音擾民問題非常嚴重,到現在也沒有更好的辦法解決。
 
第三,諧波。2003年我們搬到新機房樓,就出現了幾個問題。一是,電腦發熱比較快。二是,變壓器噪音特別大。三是,電容的補償裝置投不上去,還有電子器件燒燬。我們一查電源諧波很厲害,特別是UPS的諧波是一個很大的諧波源。當然現在用的很多設備,包括節能燈、變頻空調都是諧波源。在這種情況下,我們花了將近兩年的時間進行治理和診斷,最後採用了有源濾波的方法解決,因爲這時要上電容電抗器不太現實。
 
第四,承重。2003年我們機房搬遷之後,設計的負荷是650公斤,但按後來的發展到了高密度。現在我們一個800平米的機房,已經放了130多個機櫃,導致局部負載過重,一些澆鑄層都出現了裂紋,所以後來對承重又做了調整。”
 
以上還只是數據中心基礎設施限制了IT系統,更嚴重的情況還在於基礎設施的問題傷害到了IT系統,從而給業務帶來不可估量的損失。一個例子是北京地稅,它和北京國稅在一個樓裏,國稅的地下水管道爆裂,地稅中心的UPS就跳閘了。另一個例子是銀華基金有一次數據中心製冷系統出現漏水,剛好把一臺IBM P560Q給燒了,後來經過多方辛苦的努力,纔將業務恢復過來。要知道基金公司的業務是不能夠出現中斷的,如果出現中斷那將給公司、客戶帶來巨大的損失,基金公司也承受不了這種中斷。
 
原因:IT跑在了工業前面
 
老機房這個舊瓶裝不了IT設備的新酒,最大的原因在於IT發展過快,而與之配套的工業基礎設施與支持又嚴重滯後。
 
數據量的爆炸式增長以及信息化應用的不斷深入,正在促使IT與業務的不斷融合,同時也在促使傳統的數據中心不斷進行升級、改造。幾年前,企業的數據量也就在幾TB,但是隨着信息化應用的不斷深入以及數據、應用系統的逐步大集中,幾百TB、PB級數據量的企業正在逐步增多。而且,由於很多法規都要求業務數據保存週期要長達數年,甚至有些行業企業的業務數據需要保存幾十年,龐大的數據量和未來增長需求使傳統數據中心場地、設備面臨非常大的壓力。很多企業的數據中心場地中已經塞滿服務器,但遠遠不能滿足未來需求,同時卻令數據中心基礎設施不堪重負。
 
比如刀片服務器的大量使用,在局部形成高密度數據中心,對承重和散熱的要求飆升。高密度數據中心承重負荷一般在每平米850—1000公斤,而普通數據中心的負荷一般爲600—800公斤。結果,本來是可以節省空間的刀片服務器卻因爲承重的問題又不得不分散開來。
 
目前的許多數據中心設計的功率密度爲每個機櫃3kW甚至更低。在這樣的環境中按每個機櫃10-30kW的功率安裝刀片服務器時,這些刀片服務器需要消耗大量的電力和散熱功能,這與機房最初的設計不成比例。
 
數據中心自身也在朝着整合的大趨勢發展。現在的數據中心基本都會在500平米以上,超過一萬平米以上的數據中心也不鮮見,像農行的大型數據中心都是兩萬、三萬平米。因爲超級數據中心的出現,可能支持的範圍都已經不再是某一個小的區域,而是一個國家,整個亞太區。因此,企業往往開始新的選址,把一整棟樓都用來建立新的數據中心。
 
但是,有關數據中心的機房標準,1993年的《電子計算機機房設計規範》(GB50174-93)一直沿用到2009年6月1日,取而代之的是《電子信息系統機房設計規範》(GB50174-2008)。在這16年裏,由於受到1993年規範“機器會越來越小、性能會越來越高、用電越來越少”這種認識的影響,大多機房的設計面積偏小、承重不夠、供電也不足。
 
而要把一整棟樓都建成數據中心,面臨着沒有專業支持的困難。目前國內傳統的建築設計院都很少參與數據中心的建設,面臨數據中心大樓設計的時候沒有太多的經驗。黑龍江國稅的數據中心大樓就是一個典型案例,其背景是“金稅”工程三期,批准全國三家能夠重新蓋大樓,而不是改造。當時黑龍江國稅請了當地的甲級建築設計單位,但是他們對於數據中心的建設的經驗是空白,不得不專門設立諮詢項目,請專業的數據中心專家做諮詢,指導設計院做設計工作。
 
最後行業內缺乏專業的工程監理。原來蓋數據中心基本都是請CIO簽字,後來發現這是不對的,這個流程不是很合法,應該由專業的監理來做,但是市場上沒有專門的針對數據中心的監理,往往從土木行業請監理,但是他們又不懂數據中心的建設,這是很大的矛盾。
 
解決:亟需工業與IT的融合
 
新一代數據中心的核心是節能與擴容,也就是立足於綠色數據中心上的IT可持續性發展,這需要先進的工業支持,即專門針對數據中心的基礎設施建設。作爲世界工業巨頭,西門子已經涉足數據中心的建設領域,其在工業上的優勢能夠彌補面臨IT的不足,實現工業與IT的融合,從而建成新一代數據中心。
 
西門子北京數據中心就是這一背景下的傑作,這是西門子在亞洲最大的數據中心,佔地面積一期超過 490平米,擁有100個機櫃和630臺服務器,能夠提供所有IT和語音服務。這個設施一流的數據中心是西門子地區性戰略IT樞紐,可爲中國乃至整個亞洲的內外部客戶提供IT外包服務。在此,數據中心、通信中心和供電中心同在一個屋檐下。
 
西門子北京數據中心的PUE(電源使用效率)值在1.7~1.8之間,在最大功率容量的情況下可實現1.6的PUE值,這使得每臺服務器的能耗負荷減少了36.78%。PUE是數據中心行業用來衡量數據中心效率的值,表明數據中心的綠色程度。
 
PUE值是大於1.0的。理想情況下,接近1.0的PUE值表明達到100%的能效(即所有電力僅被 IT設備消耗)。目前,還沒有關於數據中心 PUE值分佈的非常全面的數據。一些初步數據表明國內大多數據中心的PUE值可能達到3.0或更高。
 
西門子北京數據中心的PUE值如此之低乃是得益於先進的節能和冷卻措施的採用。比如其獨特的數據中心冷熱通道設計打破了常用的IT設備排列方式,使各排機櫃的佈置方向爲服務器前部相向佈置,各排機櫃的後部也相向佈置。這種排列方式就形成了“冷熱通道”佈局。這種佈局如果合理組織,可大大降低能量損耗,並可延長服務器壽命。
 
在許多老式數據中心中,地板下空間通常被設計爲通風管道,然而,大量線纜同時也穿行其中。這影響了冷風在地板下的流動和進入服務器進風口。製冷系統爲了達到相同的製冷效果,必須消耗更多能量。西門子北京數據中心採用了架空佈線和1米高架空地板下無障礙風冷通道解決了這個問題。
 
這些先進的節能和冷卻措施有很大一部分是來自於西門子自有的樓宇科技。上海浦東機場和金茂大廈、美國白宮和法國盧浮宮都是西門子樓宇的成功案例,北京2008奧運游泳中心——“水立方”弱電項目也由西門子承建。
 
西門子的樓宇科技特別適合整棟大樓的數據中心建設,這要求對整棟大樓的消防、電梯、空調、供配電等實現整體管理,爲此,西門子開發了一套BMS軟件,包含了若干個模塊的管理:如能源、安防和消防。能源管理即針對供配電與製冷;安防是對數據中心進出人員監控和智能識別;消防系統中配有ASA專利技術傳感器,能準確判斷是真實火災還是假象火災,以減少誤報造成不必要的損失。
 
以上的工業基礎設施與數據中心虛擬化、IT自動化相結合,也就建成了工業與IT融合的新一代數據中心,即爲西門子所稱的革新型數據中心。西門子是極少能夠同時自行設計、自行建造、自行維護數據中心的企業,如今,西門子旗下的IT解決方案和服務集團已把整套數據中心特有技術轉向對外服務,這意味着西門子在輸出先進工業技術的同時,也在分享一個端到端整合的數據中心建設經驗!(羅提)
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章