北极星

搜索历史清空

  • 水处理
您的位置:电力发电信息化技术正文

谷歌数据中心供电系统剖析

2013-08-30 09:26来源:网界网关键词:数据中心服务器谷歌收藏点赞

投稿

我要投稿

正常工作情况下,1206a-b的服务器散发出来的热量进入共享的热通道内,经过盘管1222制冷后,被热通道顶部的风机1218吹回到整个机房大冷环境内,再重新被服务器风扇吸入,不断循环,机房大冷池环境如图13(a)所示。或者如果刚好部分机柜顶部没有风扇或者该风扇出现故障,则该机柜散发出来的热量会横向流动到相邻带风扇的空调(比如进入或者流出此正视图)被相邻的空调给制冷,共享热通道内部如图13(b)所示,这种冷通道和热通道共享的机制可以大大减少制冷系统的局部故障,提高系统可靠性。

 

图12(b)是实际部署机柜上电的流程图,首先1302步骤在工厂将每台服务器上架并连好电源线到PDU上,然后是1304步骤将整机柜运送到机房现场泊位,在对应位置固定安装好整机柜并连好机柜接地线,接着是1306步骤在供电母线上安装IT机柜供电配线盒,并在1308步骤上连接每个机柜PDU和顶部配线盒,于1310步骤给配线盒总闸合闸上电,最后在1312步骤给每个机柜的PDU供电开启机柜服务器。我们之前在文章《谷歌的服务器内置UPS技术介绍》中了解到其服务器电源的内部作了上电随机延迟设计,因此不会在整机柜合闸的瞬间导致大电流冲垮熔丝或者支路空开,或者也可以在远程后台逐个上电,避免同时上电的启动冲击。

图14是谷歌数据中心内部的实际照片局部,很多前面介绍的技术细节体现在这个图片中,可以看到顶部母排及配线盒,中间是线缆托架及空调,下面为30U高服务器机柜,每台1.5U高,机柜深度约700mm,冷通道为2块砖1200mm宽。服务器市电直供,机柜顶部的交换机由白色小UPS带,30孔PDU,5个熔丝槽一拖六,供电PDU和铜缆理线器一侧,带专门的理线槽,并采用不同颜色的网线区别相应的功能,总体较为美观整齐。

 

综上,本文简单介绍了谷歌数据中心的供电架构,有些盲人摸象,泛泛介绍了些内容,很多技术细节还有待进一步充实。但从我们了解的有限知识内,这个架构是对传统数据中心供电架构的颠覆,摒除了传统上依靠UPS等硬件冗余的低效率模式,追求能效无极限。同时还在高效建设、便捷运营以及系统可靠性等方面也有很多亮点。虽然这种完全定制的市电直供架构不一定适合国内数据中心用户,但其低成本、简单、高效的模块化建设思路非常值得国内学习。(作者:李典林 曾宪龙)

投稿与新闻线索:陈女士 微信/手机:13693626116 邮箱:chenchen#bjxmail.com(请将#改成@)

特别声明:北极星转载其他网站内容,出于传递更多信息而非盈利之目的,同时并不代表赞成其观点或证实其描述,内容仅供参考。版权归原作者所有,若有侵权,请联系我们删除。

凡来源注明北极星*网的内容为北极星原创,转载需获授权。

数据中心查看更多>服务器查看更多>谷歌查看更多>