WatchStor.com — 领先的中文存储网络媒体 | 51CTO旗下网站

评测导购 > 云存储 > 正文

水冷技术帮助数据中心降温防暑

watchstor.com  佚名丨2009-11-24 10:59 标签:云存储 机房 

使用数据中心时,你可能会遇到散热问题,这里将介绍散热问题的解决方法,在这里拿出来和大家分享一下。在向大家详细介绍数据中心之前,首先让大家了解下水冷技术,然后全面介绍数据中心。

让数据中心凉快起来的“未来水世界”

随着企业机房里的服务器数量持续增加,如何排放由此产生的多余热量日益成为企业面临的严峻考验。

“过去我们的机房里每平方英尺如果容纳消耗50瓦特功率的硬件设备就已经非常密集了;但是时至今日我们的机房每平方英尺容纳的服务器的能耗达到了200-300瓦特,硬件系统的配置也愈发紧凑”纽约市的数据中心咨询公司Syska Hennessy集团高级研究员Vali Sorrell专门从事数据中心冷却的研究,他表示“这让我们的基础架构在处理数据中心冷却的难题时面临更多的压力”。

热排放已经成为限制数据中心扩建的主要因素。

“5年前,我因为担忧数据中心空间的局限会阻碍我们数据中心业务的正常发展而时常夜不能寐”位于美国威斯康辛州密尔沃基市和麦迪逊市的企业级数据中心管理服务供应商CDW Berbee的数据中心经理Wayne Rasmussen这样说道“但随着空间形态的因素逐渐淡化,目前我更关心的是数据中心的热排放和密度”。

水冷技术的回归

电影《水世界》在票房上遭遇落败,而水冷技术回归数据中心却是非同凡响。水冷技术具备两方面优势--其一它可以将散热剂直接作用于热源,其二水冷技术每单位的热传导能力是空气制冷的3,500倍。

总部位于纽约市的国际高科技咨询公司Shen Milsom & Wilke负责人罗伯特.麦克法兰表示“数据中心面对空前的热负荷,我们必须采取更为有效的方法排出机房内多余的热量,这就意味着要让冷却尽可能的靠近热源,水或者冰箱是制冷的有效途径”。

让我们回顾一下今年四月IBM公司的一项声明,他们宣布最新的System p5 575将采用在处理器上直接放置水冷铜板来排放热量。这样蓝色巨人就可以在一个机箱上放置多达448个处理器核心,计算性能可以达到早期版本的5倍,而电力消耗却仅为早期版本的60%。

IBM公司还有两款采用水冷技术的产品。大规模应用--数据中心水存储解决方案(Data Center Stored Cooling Solution)是在温度和能源价格都比较低廉的时候将非高峰时期的水冷技术,在数据中心在高峰时段有更多制冷需求时发挥作用。小规模应用--Rear Door Heat eXchaner是在服务器机架背面安装一个4英寸高的制冷装置,最高冷却值能达到50,000 BTUs。

其他厂商也在他们的产品中采用了类似的水冷技术装置。举例来说,爱默生网络能源公司的Liebert XD系统就是采用水冷技术制剂来对服务器机箱进行冷却;冷却系统厂商Knurr AG的CoolTherm是在服务器机箱地板上安装一个水冷技术散热器;Egenera公司的CoolFrame技术是将Liebert's XD系统与Egenera自己的BladeFrame EX设计相结合。为了让制冷更加接近处理器,ISR公司的SprayCool M系列是在服务器内部配置模块,直接向中央处理器喷射冷却剂。

趋向模块化

另一个发展就是模块化的日益普及,全面封闭的服务器系统经常与水冷技术密切相连,诸如SUN公司的模块化数据中心S20(就是之前的Project Blackbox),Rackable System的ICE Cube和Verari公司的Forest这些箱式计算系统。微软公司也宣布将斥资5亿美元在芝加哥地区筹建数据中心,届时这个数据中心将容纳150到200个箱式计算系统(被称为C-blocks),每个系统能容纳1,000到2,000台服务器,从而向这一领域更进一步。

现有的数据中心也采用了类似的做法,比如使用Power Conversion公司或者Liebert的机箱。举例来说,位于斯坦福大学工程学院的高性能计算中心就需要安装一台新的内置1,800个核心,每秒钟浮点运算能力达到14万亿次的超级计算机。

高性能计算中心经理史蒂夫.琼斯表示“校园里目前的数据中心能为我们提供的服务器数量和系统冷却能力都十分有限,我们需要更为密集的计算系统,但目前的计算机无法满足我们的需求”。

考虑到数据中心扩建所需的时间和费用问题,琼斯目前接手了一家未能充分利用的计算机实验室并采用了Power Conversion公司的InfraStruXure系统,能在机箱内充分利用能量和冷却。校园设备集团将冷却水管和电源与实验室内安装的APC,戴尔和Clustercorp供应的服务器相连接。从设备安装到位到集群开始运转的整个过程只花费了11天。

CDW Berbee在扩建他们占地12,000平方英尺的数据中心时也采用了类似的做法。为了减少热排放,他们安装了8个20kW Liebert XDH水平排列式冷却器和160KW的Liebert XDC的制冷器。

Rasmussen表示“目前我们所有的系统都一个制冷级别上工作,温度保持在72oF左右”。

麦克法兰认为虽然他们安装了水冷技术设施,但也面临与CDW类似的问题“我接触的主要是小型数据中心,整个数据中心都采用水冷技术是可行的,但是当大型数据中心要使用成百上千的制冷装置时,要实现水冷技术散热依然任重而道远”。

打开你的窗户

目前将服务器环境封闭的趋势有所增长,反对意见也应运而生。举例来说,位于美国弗吉尼亚州的美国埃施朗公司生产的Millennium Series Chiller Optimizer采用的就是外部空气节约装置来限制冷却器或者空气制冷装置的需求。这些装置能对内外部的环境状况进行监控来决定使用多大比例的外部空气能实现冷却效率的最优化。

Sorrell认为“如果设备的设计方案可行,外部温度将比热通道返回的空气更适宜利用。用户可以选择对外部空气转换和保留制冷系统运行,或者随着外部温度下降后,用户甚至可以通过关闭制冷系统来节约更多的金钱”。

虽然外部空气需要进行过滤,但通常外部空气的质量足够清洁来满足数据中心的需求。使用外部空气优化器也能在制冷系统故障时为数据中心提供备份的制冷解决方案。

Sorrell表示“如果由于某种原因用户无法使用制冷装置,就可以随时启用外部空气进行散热,即使外部空气的温度达到90度,数据中心的设备也不至于失灵”。

【编辑推荐】

  1. ESG高层对于IT数据中心未来的五点展望
  2. 数据安全加密企业必须投入大量科研力量
  3. 绿色数据中心未来数据中心发展趋势
  4. 可持续性数据中心能源危机下的产物
  5. 数据中心理念在我国开始走线建设阶段

相关资讯

今日微信独家

《华尔街日报》报道日前援引知情人士的消息称,由于被美国政府以国家安全问题为由进行调查,联想斥资23亿美元收购IBM低端服务器业务的交易陷入了停滞状态。
关注新浪官博 订阅微信订阅号

订阅焦点周刊

论坛与活动

2016中国数据加速峰会直播专题
2016中国数据加速峰会直播专题[详细]
点击查看

精彩视频

最新文章

1111111
1111111
asdasd
asdasd
同有科技应用型大数据存储在南京掀起智能风暴
同有科技应用型大数据存储在南京掀起智能风暴
斯蒂芬斯蒂芬
斯蒂芬斯蒂芬
京东双11技术备战 构建多中心交易系统
京东双11技术备战 构建多中心交易系统