位置:首页 > 新闻动态 > 行业动态 > 您是否身临过数据中心机房现场,对机器运作时的种种能耗表现是否产生过忧虑?

新闻动态

行业动态
新闻资讯

行业动态

您是否身临过数据中心机房现场,对机器运作时的种种能耗表现是否产生过忧虑?
发表时间:2019-08-13     阅读次数:     字体:【

有些关键性名词单单提起就会给人极深的印象,比如说提及数据中心,懂行的人肯定第一感觉就是大、耗电量极高。如若身处数据中心机房内部,各个设备相继争鸣,线缆繁杂交纵,各类指示灯闪烁不停,不禁给人一种电表倒转的遐想。

无论是打车、网购,还是刷新闻、看视频和点外卖……这些行为的背后都离不开数据中心。可以说,数据中心已经成为互联网应用和服务的基石。

机房能耗

数据爆炸与数据中心耗电量

随着云计算、人工智能、大数据、物联网和移动互联网的深入发展,数据中心迎来新的发展机遇。一方面,数据中心步入快速发展阶段;另一方面,它却面临能耗过高的问题。中国8.29亿网民在2018年产生了7.6ZB的数据量,并且数据量还将以每年30%的速度增长。到2025年,中国智能互联设备将达到800亿,整个数据量将高达48.6ZB。

数据的爆炸式增长,背后是数据中心惊人的耗电量。从全球来看,到2025年,数据中心将占到全球能耗的最大份额,高达33%;从国内看,全国数据中心的耗电量已连续8年超过12%的速度增长。2017年,国内数据中心总耗电量达到1200-1300千瓦时,这个数字超过三峡大坝和葛洲坝电厂发电量之和。预计,到2020年,中国数据中心耗电量为2962亿千瓦时,2025年高达3842.2亿千瓦时。

并且,随着5G时代到来,数据中心耗电量将快速增加。居高不下的耗电量、温室气体的排放、大量的水资源消耗和设备报废后的环境污染……数据中心数量与规模的快速增长已经为资源与环境带来巨大挑战,绿色数据中心呼之欲出。

国家政策的驱动力

2019年2月14日,国家工信部、国家机关事务管理局和国家能源局三部委联合发布《关于加强绿色数据中心建设的指导意见》(以下简称《意见》)。

《意见》指出:大力推动绿色数据中心创建、运维和改造,引导数据中心走高效、清洁、集约、循环的绿色发展道路,实现数据中心持续健康发展。

《意见》的主要目标是:建立健全绿色数据中心标准评价体系和能源资源监管体系,打造一批绿色数据中心先进典型,形成一批具有创新性的绿色技术产品、解决方案,培育一批专业第三方绿色服务机构。到2022年,数据中心平均能耗基本达到国际先进水平,新建大型、超大型数据中心的电能使用效率值达到1.4以下,高能耗老旧设备基本淘汰,水资源利用效率和清洁能源应用比例大幅提升,废旧电器电子产品得到有效回收利用。

对新建数据中心,《意见》称“鼓励采用液冷、分布式供电、模块化机房以及虚拟化、云化IT资源等高效系统设计方案”,并“引导大型和超大型数据中心设计电能使用效率值不高于1.4”。

对在用数据中心,意见指示“有序推动数据中心开展节能与绿色化改造工程”,“力争通过改造使既有大型、超大型数据中心电能使用效率值不高于1.8”。

根据IDC发布的《2019中国企业绿色计算与可持续发展研究报告》表明,虽然中国企业数据中心能源使用效率(PUE)值明显改善,但依然有85%的受访企业数据中心的能源使用效率在1.5-2.0之间,未来仍有很大的提升空间。

关于数据中心高能耗问题,施耐德电气方面表示,“让数据中心变‘绿’不只是政策要求。事实上,在节能之外,绿色数据中心之‘绿’还涵盖多个环境要素,比如废旧铅酸蓄电池若处理不当,铅、汞、镉等有毒有害重金属会对环境造成危害。”

并且三部委《意见》明确指出,水资源利用效率和清洁能源应用比例大幅提升,废旧电器电子产品得到有效回收利用。

核心问题:数据中为何如此耗能?

数据中心高能耗产生的原因是什么?人们使用电脑或手机,都有这样的感受:时间一长,它们会发烫。道理相同,数据中心规模庞大,里面有大量的服务器、存储设备和交换机以及千亿级别的芯片,发烫程度非电脑和手机可以相比。因此,数据中心大量的电力被用于冷却。

可以说,冷却效率的高低对数据中心高能耗有着决定性影响。

科技巨头的数据中心怎么节能?

为解决数据中心能耗问题,企业“简直是无所不用其极”。

比如将数据中心建在北极圈内(如Facebook)、数据中心沉于海底(如微软)、数据中心“藏”于山洞(如腾讯)等。这种种措施都是为了利用自然冷源给数据中心提供更高的能效,减少制冷方面能耗的损失。

1、Facebook北极圈数据中心

位于瑞典北部,Facebook有一个名为Node Pole的数据中心,处理着用户发到Facebook上的任何自拍和任何一个“点赞”。

据悉,Node Pole2013年开始运行,藏身于一大片神秘的松林、湖泊和众群岛中间,是Facebook首次在美国以外的地区开设数据中心,同时也是欧洲最大的数据中心之一。Node Pole中心长300米,宽100米,很庞大。

据悉,Node Pole是目前为止能效最高的计算机设施。相对于传统服务器厂商的产品,这一项目开发的服务器硬件性能高38%,而运营费用则低24%。

这里冬天平均气温差不多零下20度,外界的冷空气被泵进中心大楼内,服务器产生的大量热空气和进来的冷空气循环交换,形成自然冷却的过程。

2016年,Facebook在瑞典吕勒奥建立了一个新的数据中心。该数据中心占地面积相当于6个足球场,离北极圈只有70英里,这里大多数时间气温在零下50度左右。与传统数据中心相比,新数据中心效率提高10%,同时还省下40%的电能。

2、腾讯贵州数据中心

腾讯在贵安新区建了一座数据中心,全称是腾讯贵安七星数据中心,坐落于贵州贵安新区两座山的山体中。

据悉,整个数据中心总占地面积约为47万平方米,隧洞的面积超过3万平方米,能塞下4个标准足球场还有富余,它能存放30万台服务器。

这座数据中心采用了腾讯字数研发的第四代数据中心技术——T-block。其中,T是腾讯,block就是积木。T-block就是把机房的建设模式当作积木来看。经过工信部实测,其极限PUE(能源使用率,越接近1能效水平越好)将达1.1左右,而国内新建数据中心的平均PUE是1.73。

3、微软海底数据中心

2018年6月,微软在英国苏格兰奥克尼群岛附近的北部岛屿数据中心海底负载试运行。

据悉,该项目称为Natick,被微软CEO 萨提亚·纳德拉比作“登月计划”。该数据中心为圆柱体模样,长40英尺,里面放了12个机架,有864台服务器以及相关冷却系统设施。

众所周知,世界上深海海水一直很冷,它可以为数据中心提供随时且免费的高效冷却方式。

干货:数据中心的节能技术探讨

在施耐德电气看来,数据中心的节能技术按照颗粒度分配,类似于一座金字塔,最基础的是设备层级的节能,比如通过选择模块化设备获得精准能量控制;另一方面是不断优化设备效率。

第二个层级是系统级节能,PUE里则是最大化IT负荷所在系统的获得和最小化非IT层面的获得,这方面技术非常丰富,比如最近流行的间接新风冷却系统、AI型智能管理系统,这需要多个设备相互协同。

第三个层级是战略层级。这需要企业制定自己的能源战略,对不同PUE分配单元进行实时检测、统计和制定奖惩制度。比如,企业应设立自己的首席能效官。

施耐德方面表示,“也可以从能源的生命周期来分配,即能源的产生、分配、再利用。比如苹果在国内建设的光伏型数据中心,从设计初就需要全盘考虑,做到精准分配需求。国内很多数据中心的设计往往一步到位,容量多数过度设计,需要加强分期或分模块设计能力。”

风冷和液冷的区别

当今,数据中心仍然以风冷为主,但是当机柜功率密度超过20千瓦时,传统风冷技术将面临风量、功耗、噪音等方面的挑战,因此液冷是一种不错的技术选择。

施耐德电气方面称,“传统风冷方式很难实现政府管理部门对数据中心PUE值的要求,这也将成为推动液冷兴起的重要驱动因素。”

液冷技术的价值在于,一是强冷却力。液冷的冷却能力是空气的1000-3000倍,可实现超高密度制冷。二是低PUE值,全地域/全年自然冷却,PUE值可低至1.01-1.02。三是精确制冷,部件级制冷,温度恒定,保证元器件高性能,稳定工作。四是低噪音。无压缩机、无风扇,噪音低于50dB。

目前,市场上主要有两种液冷解决方案:一是芯片级液冷(又称冷板式液冷),二是浸没式液冷。

这两种液冷方式各有优缺点:冷板式可以对绝大多数传统服务器进行翻新,缺点是其他部件仍然需要传统房间空调进行冷却。浸没式的优点是消除了对传统服务器风扇的需求,但需要对服务器主板进行重新设计。

根据笔者获得的一份资料,传统风冷PUE值在1.4以上,冷板式液冷小于1.2,浸没相变式液冷小于1.05。

据悉,施耐德电气从数据中心、楼宇角度进行了投资成本和运行成本的分析,发现:浸没式液冷相对于冷板式液冷在TCO方面是占优的。如果单从制冷系统的节能角度来看,冷板式液冷可以节省15%以上,浸没式能节省57%以上。如果从整个数据中心能耗的角度来看,冷板式可以节省5%年度能耗,浸没式可以节省15%年度能耗。

更进一步说,浸没式液冷价值更高。

一是更高换热效率。冷媒与发热器件直接接触,减少了接触热阻。采用相变换热,潜热为比热的数百倍。二是更高可靠性。一次性解决全部元器件的散热问题,采用全浸没方式,内部温度场均匀,器件可靠性更有保障。

三是更高性能。CPU等主要电子芯片温度降低且不随负载波动,即提高了计算机硬件的可靠性和性能。四是无泄漏风险。采用绝缘、环保的冷却液体,即使发生泄露对计算机硬件和外界环境均无任何风险。五是更低噪音。服务器内部无风扇,噪音可控制在45dB以下。六是更加节能。无风扇设计,PUE值低至1.05以下。

施耐德电气认为,冷却液对实现液冷的应用非常关键。关于冷却液的讨论主要集中在冷却液的价格、与IT设备的兼容性、传热特性、环境影响以及从整个生命周期角度考虑问题。

新的突破口:锂电池

在新建绿色数据中心方面,施耐德电气把锂电池视为一个突破口。众所周知,对整个数据中心来说,以UPS设备为核心的整个供电系统,是支撑整个数据中心平稳运行的最核心部分。而蓄电池又是整个供电系统中最重要的组成之一。

与传统的铅酸蓄电池相比较,锂电池凭借其出色的特性,包括较高的能量密度(70-260 kWh/kg vs. 15-50 kWh/kg)、较长的生命周期 (10-15 年 vs. 4-6 年) ,快速充电(1/2–1 小时 vs. 6-12 小时),占地节省50-80%,重量减轻 60-80%,充放电次数 >1000 循环 vs.

根据Uptime在2017年所做的全球数据中心调研显示,有10%的数据中心已经采用锂电池作为后备能源。相比于普通铅酸蓄电池,锂电池具有重量轻、储能高、自放电低,并且生命周期长等众多优点。

一方面,对于数据中心行业来说,能否最大限度地利用现有空间,最大限度减少运营费用,特别是UPS电源冷却能耗,电池维修和电池更换服务费用尤为重要。而锂电池因为其优良的性能成为解决这些问题的关键,如锂电池多次充放电的特性会产生经济效益,比如峰谷电价的削峰填谷。

另一方面,锂电池不含铅、镍、铬等重金属,成为绿色环保的首选。

未来随着新能源以及储能成本的降低,通过锂电池储能来降低成本和实现数据中心的可持续性发展目标成为可能。

无论是风冷,还是液冷,亦或是使用锂电池,真正的目标是数据中心如何在满足大数据时代的发展需求和节能方面达到一个平衡,从而实现数据中心的绿色可持续发展。

如果大家想了解融为科技更多关于机房监控及IT运维方面的内容,欢迎查看“www.rongweiit.com”本网站其他内容,相信您一定会有所收获,我们下期再见。

本文内容主旨转载自网络,如若侵权,可联系修改或删除。

 
上一篇:身处数据中心机房行业,如何防范并应对有可能会面临的机房火灾隐患?
下一篇:没有了