WatchStor.com — 领先的中文存储网络媒体 | 51CTO旗下网站

评测导购 > 云存储 > 正文

数据中心空间与PUE改善学习笔记

WatchStor.com  佚名丨2009-12-04 17:10 标签:云存储 机房 

经过长时间学习数据中心空间,于是和大家分享一下,看完本文你肯定有不少收获,希望本文能教会你更多东西。刀片服务器有时候并不能帮助提高能效,甚至有的时候还会起反作用;数据中心用电效率的改进并不依赖于刀片服务器;企业数据中心的业主开始倾向于从供应商那购买一些"小工具",而不是数据中心的整体设计方案。本文我们将深入每个问题逐个分析。

数据中心空间不是问题

跟数据中心业主的交谈让我学到了很多东西,但偶尔我也会冒出一些没意义的想法。我最喜欢的例子是服务器密度。我接触过许多刚刚购买了刀片服务器的数据中心业主。谈话的内容方向上始终是一致的,"我们买了刀片而现在看来不过是又多了一些25 千瓦的机架".我问他们的数据中心是否有open floor,基本上他们都有。那么回过头来看,我在想,他们现在以高昂采购成本购买了更高功率密度的机架,以期望每平方英尺空间能提供更高的计算能力,但事实上,数据中心不缺空间,因为几乎所有精心设计的数据中心都不会受到建筑面积的约束,而是电源和制冷方面的约束。为什么会这样?

其实这是在数据中心建设之初设计师们唯一的选择。我们来算算这笔帐:电源和冷却成本大约占数据中心总成本的70%,而数据中心的壳即这座大楼仅占10%多点。设计师需要设计一个可持续15年之久的数据中心,作为一名设计人员,怎么能够预料到15年以后的数据中心功率密度(通常用瓦特/平方英尺表示)应该是多少呢?该密度决定因素很复杂,取决于服务器的技术、存储利用率,以及许多其他未知因素。我们唯一确切知道的就是是我们不知道未来需求是什么,无论选哪个都是错的。设计师可以选择提供过量的电力和冷却,或者选择提供更大物理空间。选浪费地面空间错了10%,而搁浅电力和冷却资源却错了70%.多年前,任何一位以数据中心空间为代价保证未来的电源和冷却运行的设计师毫无疑问一定会被炒鱿鱼。他们多数都会选择在合理使用范围内提供超过需要的建筑面积来避免被炒。这就是为什么大多数的数据中心都有巨大的可用空间。

不排除有罕见的例外,但是常见的情况还是:数据中心业主投入更多资金购买刀片服务器,产出的不过是获得了更多数据中心空间,而他们原本就有未使用的空间。他们的数据中心本来就存在电源和冷却资源不足的问题,现在,加上高密度的服务器以后,这个问题更严重了。那么效率又如何呢?在谈到新的机架惊人的效率时,我们通常会提到PUE(Power Usage Effectiveness)。PUE是电力使用效率,实际上它比听起来简单,即进入数据中心的总能量除以关键负载耗能(用于服务器本身的能量)。举个例子,PUE 值为1.7即意味着服务器每消耗1w,电力分配和冷却系统的耗能是0.7 W.少数数据中心,尤其是那些经过一段时间后很多机器堆积在一起的,而不是从最开始就设计为一个整体的数据中心当中,PUE甚至糟糕到高达3.0 ,但要实现这个数字也需要付出一番"努力",所以我们会以1.7为例作为基线。

在我与数据中心业主的交谈中谈到了刀片服务器的效率,他们称PUE改善了,从1.7降到1.4 .听起来很不错,如果事实果真如此,那么这样的效率所带来的收益将超过购买刀片多付出的成本,同时也能起到良好的社会作用。不过我们需要深入的研究一下。我首先祝贺他们取得了漂亮的PUE ,并询问他们在初次安装新的刀片机时数据中心是否遇到了冷却问题。他们通常都经历过这样的问题,并且最终从APC, Rittal或者其他供应商那里购买了水冷机架。另外一些业主购买了诸如IBM iDataPlex那样的装有水冷背板的刀片机架。无论他们购买了谁的刀片产品,有一点是相同的:他们购买了刀片服务器,并在同一时间,采用水冷机架。新一代服务器比前一代效率更高,并且有更高效的冷却设计,不论它是不是刀片服务器。把服务器放到刀片上并没有使它们更有效率。

上述PUE改善最主要的原因是:他们用机架水冷取代了传统数据中心效率低下的风冷设计。水冷机架设计并没有什么神奇之处。许多其他类似的办法会有相同的甚至更好的效率。重点在于,水冷机架用的并不是大部分数据中心目前采用的最常见的、非常低效的风冷系统。传统的数据中心通常采用地板出风的设计,常温空气通过水冷CRAC(计算机房空调设备)单元变成冷空气,再从过道上穿孔的地砖吹向服务器等发热设备,出风口都在地上。某些过道上有太多穿孔地砖,而某些过道的又太少。有时工作人员将穿孔地砖放到更热的过道希望能够将其"冷却下来".这样做的出发点虽然是好的,但不幸的是冷却效率反而大大降低了。有些冷空气会通过服务器,但有一些却上升到机架的上方了;还有一些流到没有挡板的空机柜里面去了。不经过服务器的冷空气流动,导致冷却系统的效率降低。流经服务器的冷空气最后会上升到天花板然后返回CRAC .冷空气跑了这么多不通过服务器的路,都是没有效率的。如果您将水冷背板直接按到机架上——我称之为机架CRAC ,通过整体散热设计,可以避免冷空气不通过服务器的所有空中路径,并节省长距离抽冷气的动力成本,从而提高冷却效率。

由此可见,PUE值的降低并不是因为刀片更有效,而是因为它的冷却系统设计更高效。因此,即使不购买刀片服务器,仅仅将冷却系统设计改良一下同样可以降低PUE值,提高能源效率。以上介绍数据中心空间。

【编辑推荐】

  1. 简单介绍网络数据中心的发展
  2. 数据中心节能是如今相当重要的问题
  3. 讲述下一代数据中心六大核心技术
  4. 闲聊未来将是数据中心刀片服务器的天下
  5. 概括数据中心刀片服务器创新集群架构

相关资讯

今日微信独家

《华尔街日报》报道日前援引知情人士的消息称,由于被美国政府以国家安全问题为由进行调查,联想斥资23亿美元收购IBM低端服务器业务的交易陷入了停滞状态。
关注新浪官博 订阅微信订阅号

订阅焦点周刊

论坛与活动

2016中国数据加速峰会直播专题
2016中国数据加速峰会直播专题[详细]
点击查看

精彩视频

最新文章

1111111
1111111
asdasd
asdasd
同有科技应用型大数据存储在南京掀起智能风暴
同有科技应用型大数据存储在南京掀起智能风暴
斯蒂芬斯蒂芬
斯蒂芬斯蒂芬
京东双11技术备战 构建多中心交易系统
京东双11技术备战 构建多中心交易系统