高效数据中心的六大绿色节能措施

网络
和一两年前相比,很多数据中心的运营者们如今也并未热衷于“绿色”这个词。这当然不是说他们已经抛弃了旨在提升能源效率,更好地利用IT资源的各种项目,因为这些项目既可以削减运营成本,又能减少对环境的影响。

和一两年前相比,很多数据中心的运营者们如今也并未热衷于“绿色”这个词。这当然不是说他们已经抛弃了旨在提升能源效率,更好地利用IT资源的各种项目,因为这些项目既可以削减运营成本,又能减少对环境的影响。

市场咨询公司451集团在考察了被大批组织和机构所接受的可降低数据中心运营成本的六种绿色实践之后,发布了一份内容全面的报告:《高效节能的数据中心实践》。其中的一些实践做法,如进行数据中心的全面规划,寻找可替代传统制冷系统的方案等可能早已被大家所熟知;其他做法,如采用直流供电和预制件数据中心等,则很少有人谈及,或者被认为不可持续而不予理会。

在计划升级其设施时,数据中心的运营者们应该好好考虑或者重新考虑一下这些趋势。当然,并非所有这些实践都适合每一个组织,但如果你不去看看,那你就有可能永远都不知道有这些实践做法存在。

实践1:采取综合的可提升整体效率的方法

数据中心运营者需要通过结合了集成技术和各种手段全面处理效率问题的方法,而不能孤立地去对待每个项目。这其实并不是什么开创性的概念:绿色网格组织从2008年成立以来就一直在提“通盘考虑”的口号。而这样做的最大好处之一就是可以促进各部门间,尤其是设施部门和IT部门间的协同,确保所有的参与者在对数据中心进行升级改造时能够意见一致。举例来说,IT部门订购了一个用于关键任务项目的高端服务器机柜,那么他只需要在机柜到达数据中心时打听一下是否有足够的电力或冷却能力支持这个机柜便可。

组织内的协作并未到此结束。为了努力减少能源浪费,很多企业部门之间如今已越来越开放,曾经是各部门最隐秘的东西也可以公开。这方面最有名的例子就是Facebook,利用其开放计算项目,该公司有关高效服务器、机柜和冷却设备的蓝图也都在开源。

实践2:更智能的冷却系统

数据中心运营者们正逐渐意识到,数据中心设施并非存放肉类的大冰柜,只需要适当制冷即可。虽说IT管理人员不希望设备因过热而失灵。但如果你花在IT上的每个美元都得分出50美分用于制冷的话——这正是很多传统数据中心的平均PUE比值——那几乎可以肯定你是在烧钱。

有好多种办法可以降低冷却成本,其中一些技术始终不被企业所接受,生怕会毁掉他们的宝贵硬件。这其中就包括液体冷却技术,该技术被认为会产生很多维护方面的问题,而且使用范围有限。但是来自绿色革命冷却公司的一种液体冷却方法采用了低成本、无污染的绝缘液体,据称其吸热能力是空气的1200倍。

至于空气冷却这种免费冷却方法则要比液体冷却更受欢迎。这个概念也很简单:只要把数据中心建在较为寒冷的地方即可。然后利用空气节能装置吸收室外空气,排出热空气,从而达到降温的目的。越来越多的企业开始接受这种免费冷却方法。例如微软在都柏林将其原有的303000平方英尺的数据中心再扩建出112000平方英尺,扩建部分完全依靠空气节能装置来进行冷却。

实践3:利用可再生能源发电

包括微软、谷歌、Facebook、雅虎和加拿大贝儿公司在内的一批企业通过安装可再生能源发电设备来减少市电账单的做法令人印象深刻。太阳能就是一个很受欢迎的选择,随着太阳能电池板价格的逐渐下跌,此方法正越来越受欢迎。451集团指出,而且太阳能还不是唯一的选择,例如富士通已经把氦气发电作为了一种替代方案。还有些企业正在探索用牛粪来发电。现场发电虽然需要一些前期投资,但是在正常情况下,这种投资的回报很快。

#p#

实践4:采用直流电供电

在典型的数据中心环境中,从室外的电力开关到服务器,电压转换装置比比皆是。电压每转换一次就会损失部分电力。电力开关处的初始电压为16000VAC(交流电),然后被转换成440VAC到220VAC,在到达UPS馈送给每个机柜前再转换为110VAC。每个UPS将进来的交流电转换为直流电,再转换为交流电返回。然后每台UPS将交流电分配给各个服务器。进入数据中心的电力中,高达50%到70%就在这样不断转换的路途中被浪费掉了。而直流电供电系统便可取消所有这些转换成本,大大减少能源支出费用。

企业在转向直流电供电时心存疑虑有这么几个原因。有些运营者可能还不知道硬件厂商已经开始提供可支持直流电环境的系统了。此外还有成本考虑,如电压较高的电力系统需要大笔的安装费用。但是,能在许多年内节省50%或更多的电力,这就是巨大的回报,这还没有算减少了很多变压设备而带来的数据中心的空间节省。

实践5:让IT设备更高效

虚拟化已经帮助数不清的企业整合了大量的硬件,减少了服务器数量。451集团的报告称,还有不少企业正在部署DCIM(数据中心基础设施管理)软件。这些工具可以图形化显示数据中心全部的物理和逻辑资产,显示机柜和数据中心楼面的布置情况和机柜的热负荷。利用这个软件,数据中心经理可以将任何迁移、增加或变更模型化,在变更实施之前通过创建复杂的what-if场景从而把对性能的影响降至最小。

在硬件端,例如谷歌和Facebook就使用了自己专门设计的服务器而不是现成的产品。两家公司都采用了可以去除冗余部件的一些技术,Facebook甚至在主板上将双核处理器设计成并排放置而不是前后放置,因为这样做可以改善空气流动。在存储端,固态存储系统也有降低能源浪费的潜能。451集团称:“固态存储盘的出现可能成为游戏改变者,尽管市场对其的采纳才刚刚开始。”

实践6:采用模块化路由

设计和建造数据中心存在着诸多陷阱:首先是需要花费大量的时间(而且浪费时间),因为整个组织各部门需要派代表来参与讨论有关新的数据中心厂房的设计问题,常常会争论得不可开交。再有就是建造过程会出现浪费,大大超出实际需要,比如数据中心的规模、密度或者冗余度等。可能还需要为建造不能带来任何回报的电力和额外的基础设施买单。

因此数据中心的运营者们对模块化构建和扩展方式越来越倾心。这种模式可限定部署可移动的集装箱也叫模块,它们由一些标准化的组件构成,如IT硬件、电源和冷却设备等。企业可根据计算需求的增加而随意添加新的模块,这都是因为模块的可移动和千篇一律的设计。这些模块还能带来灵活性,可在自由空间内自由组合。

责任编辑:遗忘者 来源: 网界网
相关推荐

2012-02-27 10:06:12

数据中心通风系统

2015-09-14 09:30:39

绿色数据中心节能

2009-02-04 10:05:46

绿色数据中心节能

2013-05-06 09:52:52

绿色节能

2013-12-16 14:16:05

数据中心

2016-02-17 09:26:09

数据中心

2015-06-10 14:37:59

数据中心数据中心优化

2017-08-25 16:35:50

绿色数据中心秘密

2023-08-21 10:39:05

数据中心服务器

2013-05-10 10:10:29

数据中心机房风冷却

2010-01-25 16:49:27

艾默生网络能源

2009-06-30 19:16:05

数据中心节能虚拟化

2012-05-31 09:42:06

数据中心

2015-12-02 10:04:37

数据中心数据中心优化

2010-09-02 10:21:29

数据中心制冷绿色节能制冷与耗能

2017-09-22 08:16:03

数据中心模型TCO

2015-06-10 15:06:53

绿色节能数据中心

2022-11-02 11:02:52

数据中心数据中心架构

2011-03-31 14:53:13

数据中心节能

2023-02-06 16:56:45

数据中心服务器
点赞
收藏

51CTO技术栈公众号