在线工博会

冷却技术--“冷酷”的学问
Darrell Dunn 周鹏 译
计算机广泛应用所带来的一项副产品—热量,已经成为企业数据中心的头号敌人。过多的热量会不断“煎熬”CPU,“折磨”处理器,降低计算机效率,以及加重冷却系统的负担,并最终消耗更多的电能。由于数据中心里的服务器机柜摆放的密度越来越高,使得那里的温度比以往都要灼热,散热问题也因此变得越发严重,为此整个IT行业都在竭力避免由服务器过热而导致的数据中心瘫痪。采用水冷却的方法散热就是其中一种解决方案,那么是不是还有另外的办法呢?
在技术开发领域,无论是新兴的创业公司,还是惠普公司(HP,下称惠普)和国际商业机器公司(IBM)等行业巨人,都在研发向计算机“发热点”喷射液态冷却剂的数据中心散热技术。
液态冷却剂有时使用特殊处理的水,它具有绝缘性和无腐蚀性。而另一些时候,则使用更为特殊的液态物质。但目的都是一致的,那就是如何更加有效地散热降温。
这种技术潮流其实是旧有技术的一种回归。20年前,大型机的散热问题是依靠水套(Water Jacket)来解决的,它的工作原理与汽车水箱的作用有些类似,后者是将发动机的热量转移到别处散发掉。但目前水套技术受到一定的抵制,一些IT专业人士不希望把液体冷却技术重新引入到装备有大型空调设备的现代数据中心。他们的理由是:这些价格不菲的服务器,配置了很多复杂精密的电子元件,因此最好让他们保持干燥状态。
也许我们应该换个思路想一想。与单台服务器不同的是,数据中心中排列着一排排的服务器机柜,以及整齐摆放的刀片服务器,其每平方英尺产生的热量远非单台服务器所能比,液体冷却也许是唯一可行的办法。IBM的吉姆•加根(Jim Gargan)举了个生动的例子,他说:“酷热难耐时,是一头扎进一池凉水解暑呢,还是坐在电扇下吹风更凉快呢?”结果当然不言而喻。
加根是负责IBM System X服务器散热技术的副总裁。他预测:到明年,大部分企业数据中心的电能消耗和散热系统的花费将比计算机系统本身的投入还要高。他把数据中心电能消耗和散热技术称作“未来10年的IT战场”。数据中心处理散热问题的策略包括:购买配置低散热处理器的服务器,重新规划数据中心布局以提高通风率,使计算机更加靠近冷却散热系统,以及采用液体散热技术。这种技术包括环绕服务器的水套技术以及更直接地向服务器电子元件喷射冷却液的技术。
专注于热管理技术的ISR公司最近推出了SprayCool M系列的企业版,这是一种芯片直接散热技术,其模块附加在每个微处理器上,通过向环绕处理器的金属板喷射雾状液体,消除超过一半的热量。这项技术的G系列数年前即已上市销售,其通过向服务器主板喷射绝缘液体达到散热效果,目前主要应用于政府数据中心。
惠普和艾默生公司(Emerson)下属的力博特公司(Liebert,下称力博特)正在为企业市场研发芯片直接散热技术。一年前,力博特购并了Cooligy公司,后者研发出一种冷却技术,通过向置于处理器顶部的金属板喷射经过化学处理的水进行散热降温。这种金属板有100个或者更多的细微通道引导冷却剂通向芯片的发热点。该公司表示,该散热技术已经被应用于成千上万的服务器工作站。
惠普在公司内部成立了一个“冷却团队”,目前该小组正在研究近端液体散热系统,芯片直接散热技术以及服务器和散热系统的动态传感控制。2006年1月,惠普推出其第一个“环境控制”冷水散热平台,称为标准散热系统,它被添加在每个服务器机柜上,利用冷水来冷却机柜前方的空气达到散热目的。通常,机柜中留有一些空槽保持通风以防机柜过热,但有效的散热系统可以允许更多的服务器插入机柜,同时还不会导致机柜温度过高。
惠普研发芯片直接散热技术已经有数年时间,公司利用喷墨打印机的喷墨头向微处理器喷射冷却剂。“冷却团队”负责人、惠普研究员钱佐坎特•佩特尔(Chandrakant Patel)预计,未来几年将会出现新老冷却技术融合的趋势,企业将会综合采用常规通风、直接接触以及芯片直接散热等等手段来解决散热问题。
有效的液体散热
数据中心的经理们在系统散热方面的工作实在无法令人满意。
研究机构Uptime Institute公司对一个拥有19间机房、综合建筑面积达到20万平方英尺的数据中心进行调查,发现该中心实际所具备的散热能力比要求的高出2.6倍,但其中却有60%的散热能力因不合理的布局、通风设计等原因而被浪费掉。而且最终,超过10%的服务器机柜会出现温度过高情况。
掌握以下信息很有必要。数据中心中每个服务器机柜的平均能耗是2.1千瓦。如果机柜间距更小的话,这个平均值可以达到20~40千瓦,产生数倍热量。
乔治亚理工学院(Georgia Institute of Technology)正在应用一种新技术,可以使冷却系统与计算机热源的距离更近,这样每年可以节约160万美元使用成本。学院的系统生物研究中心主任杰夫瑞•斯考尼克(Jeffery Skolnick)见证了该中心价值850万美元的超级计算机的安装过程,其中服务器布局设计和电力分配方案至关重要。中心将IBM刀片服务器系统的1,000节点服务器集群安装在12个机柜中,而且利用IBM的后门热交换器(Rear Door Heat eXchanger,编者注:又名“酷蓝”散热系统),通过冷水直接在服务器后面进行冷却。
这家数据中心面积为1,300平方英尺,去年部署了酷蓝散热技术。利用酷蓝,该中心取得了多方面的效果。比如,中心所需要的空调制冷量要比当初预计的减少了一半,即从160吨降低到了80吨,同时由于空气流通量减少还降低了噪音。未来几个月内中心还将增加4只机柜,斯考尼克希望,芯片直接散热技术能够帮助中心节约更多的电力成本。他说:“目前,我们认为酷蓝是最可行的技术。但是,每一次技术升级都会带来标准和规则的变化,所以你必须考察哪些技术比较可靠。”
在数据中心里利用水或其他液体进行散热降温的想法吓坏了一些IT员工,他们认为液体会毁坏计算机元件,并造成短路。他们总是想象着水管爆裂和喷头偏离目标等场景。
科林森公司(Callison)的助理主管莱昂那多•拉夫(Lenonard Ruff)说:“除了液体散热,也许没有更好的选择了。”该公司专门从事数据中心的规划设计,目前已经开始测试液体喷射芯片直接散热技术M系列,他们认为芯片直接散热技术十分有效,以致于固定数量的服务器消耗的电能再增加一倍,散热设备也能胜任,数据中心的服务器也不会过热,而且还增加了285%的处理运算能力。这家公司正在向其客户大力推广这种新技术。
市场调研机构顾能公司(Gartner)研究员卡尔•克劳奇(Carl Claunch)预测:“尽管一些数据中心经理毫无道理地反对液体散热技术,但是仍然会有越来越多的企业将在其数据中心采用这些技术。”他还建议企业在筹建新的数据中心时,应该将液体散热系统的基础设施考虑进去,即使企业不准备马上购置并安装液体散热系统的设备。
其他散热方法
过去2年中,力博特、惠普、IBM以及美国电力转换公司(American Power Conversion)等电力管理和散热设备制造商,都相继研发出一系列数据中心散热产品,包括空气调节设备以及添加到服务器机柜上的液体和冷却设备等。
日前,IBM发布了PowerExecutive增强版。它可以自动管理能耗,向需要电能较多的地方输送更多的电能,而那些即将过热的地方则少输电或不输电。IBM的温度诊断工具Thermal Diagnostics,可以监控数据中心中潜伏的“热隐患”,并会通过PowerExecutive采取必要措施防止情况恶化。
当然,并非所有的数据中心都需要液体散热冷却技术,其实还有其他方法也能够解决部分散热问题。虚拟主机商INetU Managed Hosting公司刚刚建成第四座数据中心。该中心靠近宾西法尼亚州的阿伦敦(Allentown),面积1,500平方英尺。中心采取了抬高地板和防潮墙体等措施来减少湿度,并在服务器机柜后边和旁边增加风机以提高通风率,另外增加空调设备来扩大制冷量。公司总裁戴夫•强查尼(Dev Chanchani)说,其他数据中心所面临的散热问题都可以通过扩大中心规模得以避免。如公司需要更强的数据处理分析能力,公司会再建一个数据中心来满足要求。强查尼还表示,如果只能在现有数据中心中增加更多的服务器,正如大多数企业现有处境那样,他就会考虑新型散热技术。“如果你只能在一个狭小的空间增加服务器密度,我想新技术可能会格外有帮助。”强查尼补充说道。 1/30/2007


电脑版 客户端 关于我们
佳工机电网 - 机电行业首选网站