C114通信网  |  通信人家园

资讯
2017/9/12 16:16

阿尔法特CTO赵宁凡:数据中心制冷要实现与实际需求的最佳匹配

厂商供稿  

由于数据的爆炸式增长,以及云服务、大数据对IT基础设施提出的新的挑战,数据中心正在向大型化、集中化等方向发展,传统数据中心建设模式,也正逐渐的被模块化、高密度所替代。数据中心已经不再是简单的"数据仓库",已成为数据交互、信息处理和数据分析的数据综合管理平台。

随着数据中心面积、规模的增加,数千甚至上万台IT设备同时在线,产生了大量的热量和电力消耗,制冷和降耗成为了数据中心面临的最大挑战。

为了给数据中心规划、建设和运维管理提供一些有益的经验,中国IDC圈记者采访了深圳市阿尔法特网络环境有限公司(简称阿尔法特)CTO赵宁凡先生。据悉,赵宁凡是国内资深制冷空调专家,有丰富的阅历、经验和很多开创性的成果。早在上世纪90年代就已经从事模块化制冷技术、磁悬浮制冷技术、自然冷却技术、一次泵变流量技术等先进高效制冷技术的研究,是国内最早从事这些新技术研究的专家,有很多项技术发明。赵宁凡也使阿尔法特成为中国最早从事数据中心微模块解决方案研发、生产、服务的企业之一。

以下是赵宁凡就记者所提的问题给出的一些见解和建议。

关于数据中心制冷解决方案

赵宁凡在接受采访时表示,大型数据中心制冷的技术关键在于针对高密度部署的有效制冷。目前新建的大型的数据机房都在向中高密度部署方向发展,为了解决中高密度部署下对数据处理设备的有效冷却,大部分机房都采用了冷热气流分离的冷却和气流组织方式。在这一应用需求的引领下,为数据中心服务的空调产品出现了行间空调、背板式空调、地板式空调等等这些形式,这些形式的空调产品最主要的特点就是有效的适应了冷热气流分离这样的高效冷却方式。

数据中心的制冷有单体式和集中式两种形式,单体式简单来说就是有很多个小型单一的制冷机组。制冷量在300kw以下的小型的数据中心,很多就是采用单体式的制冷。而对于大中型的数据机房,应该采用冷源集中形式,即采用大型制冷机组为数据机房进行集中供冷。大型的制冷机组具有更高的效率和更低的维护管理成本,这是提高数据中心可靠性和效率的有效形式。

赵宁凡表示,数据中心除了配备常规热力循环机理的制冷机组提供制冷外,为了最大限度降低冷却方面的电力消耗,在有条件的地区,FreeCooling (自然冷却)也已经成为数据中心在大部分情况下的"标配".FreeCooling是一种在室外温度比较低时,通过相应的技术手段将室外冷源引入机房内部将热量带走,以达到降温的目的。以北京地区为例,从每年11月份到来年2、3月份的四个月期间,基本可以完全依靠FreeCooling为机房制冷,而不需要启用压缩机制冷设备。在北京,FreeCooling一年大约可以节约30~40%制冷电量消耗。

由于FreeCooling是利用室外冷源进行制冷,因此节能程度受到地域限制。在国内,北纬28度以北的地区,基本都可以采用FreeCooling.业内一般认为南方地区并不适合采用FreeCooling方案。但赵宁凡解释道,实际上,服务器的排风温度通常在35度左右,由于采用了冷热气流分离的冷却和气流组织方式,这为在广州和深圳这样的南方地区同样提供了自然冷却的可能。要知道,即使在广州和深圳这样典型的南方地区,实际上每年冬季也会有一定的时间,环境干球温度或湿球温度是具备自然冷却的条件的。事实上也确实有一些新建的数据中心采用了自然冷却,只是节能率不如北方地区的数据中心来的更多。

数据中心新的制冷技术

近几年,随着数据中心绿色节能理念的不断深入,各种高效的制冷方式都在进行不断地尝试。液冷和磁悬浮制冷就是其中一项比较突出的创新技术。

赵宁凡表示,由于液体的导热系数和热容量要比空气大得多,因此,液体冷却无疑是一种更加高效率的冷却方式。液冷方式有很多种,比如微通道液冷基板、浸泡式、激射式等。这些液冷形式各有千秋。实际上液冷技术并不稀奇,液冷基板这种形式的液冷技术在超算、高性能雷达或者大型电力变频器等领域至少已经有了十几二十年的成熟应用,尤其是大型的高性能超级计算机和高性能军用雷达。液冷技术真正能将高密度部署带到一个前所未有的更高的层级,而且由于液冷技术可以实现针对CPU这样的热岛精确定点冷却,从而可以精确地控制制冷分配,因此,液冷技术也无疑是数据中心节能的发展方向之一。目前液冷技术本身并不存在难以克服的技术难点,应用推广的主要障碍在于技术集成和成本。技术集成方面需要研发制造新型的采用液冷技术的通用服务器。而成本则与性能目标有很大的关系,过高的性能目标当然会带来高昂的成本,对于商业运行来讲难以承受。但只要不盲目追求过高的性能目标,总可以找到成本和性能的平衡点。目前液冷技术在数据中心的应用已经进入初步的尝试阶段,虽然短期内还不具备大规模部署的条件,但对于这一技术我们可以抱有一定的信心。

除了液冷技术之外,近两年磁悬浮制冷技术也逐渐被市场所关注,赵宁凡表示,目前磁悬浮制冷主要应用在热负荷1000kw以上的数据中心。磁悬浮冷水机组有风冷和水冷两种类型。由于磁悬浮压缩机的特点,风冷型磁悬浮制冷机组不太适合夏季环境温度太高的地区。在价格方面,磁悬浮制冷机组在十年前成本还是比较高昂的,但是随着磁悬浮压缩机的技术成熟度不断提高,量产不断扩大,磁悬浮机组的成本也在逐步下降,目前在成本上已经与常规制冷机组相差不是那么巨大了,而由于磁悬浮制冷的效率至少比常规机组高10%到20%,因此,目前磁悬浮制冷机组的价格水平对这一产品的应用推广已经不是太大的障碍。

磁悬浮压缩机制冷在数据中心的应用还有很多文章可做,磁悬浮制冷压缩机的很多特性经过充分的挖掘其实是非常适用于数据中心冷却系统。

选择数据中心的制冷系统和设备应该综合考量

对于目前市场上种类繁多的制冷设备和节能技术,赵宁凡表示,用户在进行数据中心设计规划的时候就要有一定的前瞻性,要充分考虑到可靠性和今后的可扩展性。由于电子技术的发展速度非常快,技术更新换代要比常规的机械产品来得更快、大部分的数据中心在全生命周期内,每3-5年,有30%左右的IT硬件设备会被新设备替代,在数据中心大部分的物理基础设施达到使用寿命之前,IT设备可能已经更新换代了2-3轮。至少我们现在已经看到,每一次数据设备升级,都会伴随性能提高和功率增加。国内很多数据中心建成还没有多少年,就发现制冷能力已经不能满足新的要求,这就是当初规划设计前瞻性不足所导致。所以,作为物理基础设施重要组成部分的制冷系统,在规划设计的时候,应该充分考虑到数据设备若干年后的更新换代,应为今后的升级留下冗余或者可扩展的能力。

和中国存在的普遍现象一样,目前在数据中心建设,很多用户在选择制冷设备时,性价比已经被简单的价格比所替代,"价格"成为了很多项目设备选择标准的最主要考量指标。对此,赵宁凡认为,电源和冷却是数据中心物理基础设施的两个关键系统,这两个关键系统如果出了问题,严重的会导致整个系统的宕机。而不同于一般的舒适性空调制冷设备,数据中心制冷要求全年在各种条件下24小时365天不间断运行,数据中心的制冷设备运行一年,至少相当于普通舒适性空调运行2-3年。所以,对设备的可靠性和耐久性要求更高。同样,由于数据中心制冷运行的时间长,所以制冷设备的效率对运行费用的影响要比普通舒适型空调更大。因此,选择好的,真正是性价比高的制冷设备,能为提高数据中心系统的可靠性,降低运行管理费用,带来很大的好处。俗话说得好,好货不便宜,便宜无好货,所以,价格不应成为数据中心制冷设备选择的最主要指标。

关于PUE,赵宁凡认为PUE是动态,不是静态的,目前用静态的PUE来评价数据中心的效率水平不够科学,不够全面。数据中心的耗电水平除了与设备本身的效率有关之外,还和运行环境、维护保养等有关,一个静态PUE高的数据中心,并不代表全年一定是节能的。以制冷设备为例,过去衡量制冷设备的效率高不高,就用一个COP指标。但是,从上世纪80年代后,通过大量的数据分析,我们发现,空调的全年平均使用负荷只有30%左右,制冷空调设备大部分时间里面实际上是在部分负荷下运行的,这就有了对制冷空调设备效率评价标准的一次大变革,这就是设备的综合能效比或季节能效比IPLV(EER)。

赵宁凡认为,数据中心能耗的评价标准也应该参考空调设备的IPLV(EER),用能够反映全年实际运行水平的综合的PUE来取代单一静态的PUE.当然,这样的评价标准需要建立在大量的数据统计基础上,这也带来了另一个话题,就是数据中心的环控和电能监测,数据中心这两方面数据的统计记录是建立新标准的基础。而大数据技术对于这方面来说,已经不存在多大的问题,这需要行业专业组织来谋划和引导这样的转变。

给作者点赞
0 VS 0
写得不太好

  免责声明:本文仅代表作者个人观点,与C114通信网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

热门文章
    最新视频
    为您推荐

      C114简介 | 联系我们 | 网站地图 | 手机版

      Copyright©1999-2024 c114 All Rights Reserved | 沪ICP备12002291号

      C114 通信网 版权所有 举报电话:021-54451141