摘要:热通道气流遏制和冷通道气流遏制均可显著提高传统数据中心制冷系统的可预测性和效率。尽管两种方式均可消除冷、热空气的混合,但在实际的实施和运营中两者仍存在差别,而且这种差别将对作业环境、PUE 和节能冷却模式运行时间产生显著的影响。因此采用让热通道气流遏制系统可以采用热通道气流遏制的策略会比采用冷通道气流遏制的策略多取得 43%节能效果,由此在年度 PUE 上有 15%的改善。本文将对两种方法进行研究,并着重阐述为什么热通道气流遏制系统是解决高密度和提高制冷效率的最佳方案。
前言:
较高的能源成本和激增的数据中心能耗率已迫使数据中心专家开始重新思考其数据中心制冷策略。 尽管传统的制冷技术(如通过解放高架地板压力通风系统提供的传统房间级制冷方式)仍然非常普遍,同时,热通道和冷通道气流遏制等新的技术正逐步取得显著的进展。除了能效方面的优势之外, 气流遏制系统可以使众多 IT 设备进风口温度保持一致,从而消除在不使用气流遏制系统的传统数据中心架构中经常出现的局部过热点。
对于所有新建和很多改建带有高架地板的数据中心,热通道气流遏制系统是的首选解决方案,但 因为采用高架地板而导致机房可用高度过低,使得实施起来会比较困难或者造成成本上升。在这 个时候,采用冷通道气流遏制系统尽管并不是最佳的方式,但是在这种情况下却是最可行的选项。
相对于传统的不仅型气流遏制的部署方式,冷通道气流遏制系统和热通道气流遏制系统都会带来能源成本上的巨大节约。本文将分析和量化两种气流遏制方式的能耗,而且由于能够更多的延长节能冷却模式运行的时长,采用热通道气流遏制的策略会比采用冷通道气流遏制的策略多取得 43%节能效果。由此最终得出新建数据中心应该首选热通道气流遏制系统,或者为今后部署热通道气流遏制系统做好准备。
气流遏制系统的能效优势
对数据中心机房内的冷风或者热风进行遏制会产生以下能效方面的收益。值得特别注意的是机柜行采用冷通道/热通道布局 1对二者而言都是必要的条件。
制冷系统可以设置为更高的送风温度(因此能够节能和增加制冷容量)而仍然可满足负载的安全运行温度。不采用气流遏制系统的房间级制冷系统所设置的送风温度则要比 IT 设备所要求的温度低得多(约为 13°C/55°F),以防止局部过热点的产生。产生局部过热点的原因是在冷风离开制冷设备到达 IT 机柜前的过程中,热量被带入冷风引起温升。采用气流遏制系统允许提高冷风的送风温度,以及到达制冷装置回的风温度尽可能的高。较高的回风为温度有助于提升冷却盘管的热交换,从而提高制冷容量和整体的能效。这种影响对于几乎所有的空调设备都是存在的。某些设备会存在最高回风温度的限制,但是总的来说,所有的制冷系统在较高的回风温度的时候都会具有更高的制冷容量。
消除局部过热点。气流遏制系统能阻止冷风在离开制冷设备到达 IT 机柜前的过程中与废热的混合 。这意味着在制冷装置一侧的送风温度等于 IT 设备进风口温度,即统一的 IT 设备进风口温度。当没有冷、热风混合,可以在不产生局部过热点的的前提下提高送风温度,从而延长节能冷却模式的运行时长。
延长节能冷却模式运行时长。当室外温度低于室内温度时,就可以不通过制冷系统的压缩机工作来向室外排热。通过提高制冷系统的工作温度区间设定点可以大幅的延长制冷系统中停用压缩机的时间,达到节能。
加湿/除湿成本降低。 通过消除冷、热风混合,设定较高的制冷系统送风温度,可以使制冷系统在高于露点温度的工况下运行。当送风温度高于露点温度,空气中的湿度就不会降低。如果湿度不降低,那么就不需要加湿,这样就节约了电能和水。
更好的物理基础设施整体使用率, 适度规划带来的设备高效率运行。与适度选型的设备相比,越过度选型的设备具有的固定损耗越大。然而,由于高架地板下送风路径中的阻碍和风道中增压的力要求额外的风机功率,所以无法避免对传统制冷系统过度规划。
冷通道气流遏制系统
冷通道气流遏制系统(CACS)使得数据中心的其余部分成为一个大的热回风压力通风系统。通过密闭冷通道,数据中心内的冷、热气流得以分隔。值得注意的是冷通道气流遏制系统要求机柜行采用冷/热通道布局
如图 1 所示是采用冷通道气流遏制系统,高架地板下送风方式和房间级制冷的数据中心机房的基本原理。在这种数据中心中,可以通过封闭冷通道的顶部和两端来部署 CACS。这样做对于已有的数据中心改造是非常方便的。
一些用户部署了自行开发的解决方案,数据中心操作人员采用各种类型的塑料材料作为门帘从建筑物结构上垂下,以封闭冷通道(见图 2)。有些厂商现在提供安装在数据中心相邻机柜行上的顶板和室门,以便将冷通道与在数据中心空间内其余部分循环的热空气加以隔离。
图1 以传统房间级制冷方式部署的冷通道气流遏制系统(CACS)
图2 自行搭建的冷通道气流 遏制系统示例
热通道气流遏制系统
热通道气流遏制系统 (HACS) 将热通道密闭,以搜集 IT 设备的排出的废热,数据中心机房内的其余空间就形成一个巨大的充满冷空气的“冷池”。通过密闭热通道,数据中心内的冷、热气流得以分隔。值得注意的是冷通道气流遏制系统要求机柜行采用冷/热通道布局。如图 1 所示是采用热通道气流遏制系统,行级水平送风制冷的数据中心机房的基本原理。图 4 中的热通道气流遏制系统采用行级制冷以机柜行作为独立的工作区域。
另一方面,HACS 可以通过风管连接机房空气处理装置(CRAH)或者将整个热通道围成通向大型房间级空调单元的烟囱状风道(图 5)。选用 HACS 的一个主要的优点就是可以使用现有的节能冷却模式。这种 HACS 设计方案适用于大型专用数据中心设施,因为风侧节能冷却模式效率上的优势。但这类系统会需要构建大型的充气空间和/或定制的建筑结构来有效地处理所需的大量空气。因此,这种 HACS 的变体设计非常适用于新建或者大型的数据中心。值得注意的是,上面提到的 HACS 选项也同样适用于 CACS。但是本文将会在下文论证 HACS 的节能效果远远好于 CACS。
图3 热通道气流遏制系统(HACS) 与房间及空调 一起部署
图4 作为独立区域运行的 热通道气流遏制系统(HACS)
图5 热通道气流遏制系统 (HACS) 风道连接至独立制冷模块
气流遏制系统对作业环境的影响
不去考虑气流遏制系统的种类,数据中心仍然需要有工作人员在其中工作。事实上,在数据中心机房内封闭通道外的开放空间内放置人员工作台是非常普遍的。这种开放区域,称之为作业环境,必须保持在一个合理的温度而不能违反OSHA的法规条例或者ISO 7243(在中国请参见国家标准GB/T4200/2008)中对湿球黑球温度(WBGT)5范围的指导原则。请注意封闭通道外的开放空间在采用不同气流遏制系统是的区别:
当采用冷通道气流遏制系统时,通常所说的开放的作业区域(包括通道,办公台等)的温度就会和热通道的温度一样,如图 6 中红色阴影部分所示。
而采用热通道气流遏制系统时,通常所说的开放的作业区域的温度就会和冷通道的温度相同,如图 6 中蓝色阴影部分所示。
图6 采用冷通道气流遏制 和热通道气流遏制的 作业环境
采用 CACS 时,热通道内的温度过高也会导致作业环境温度同样过高,对长期在数据中心机房内作业的 IT 人员产生不良影响。而采用 HACS,高温只存在于封闭的热通道之内,而不会影响到在机房内长时间作业的人员。
值得注意的是在IT人员需要进入热通道进行作业的时候,还可以在作业之前打开门使冷风中和掉热通道的高温(在机柜后部)。 即使保持热通道关闭,仍然符合作业环境的法规,两点原因如下: 1)人员并不是在高温环境(热通道)内进行长期作业,采用CACS则不然,而且 2)绝大部分的作业都发生在IT机柜的前部。这样就遵守了在WBGT6 为 32.2°C(90°F)时OSHA所要求的 25%工作和 75%休息的劳逸比例。这就意味着采用HACS的热通道温度最高可达 47°C
(117°F)。HACS允许较高的热通道温度而不影响到机房内的其它空间是HACS和CACS之间最关键的区别,因为这样可以使机房空气处理装置(CRAH)更高效的运行。
与人员的舒适性同等重要的还有 IT 设备的稳定运行。2008 年发布的 ASHRAE 标准 TC9.9 建议服务器进风温度区间为 18-27°C(64.4-80.6°F)。采用 CACS,房间的其它部分(作业环境) 会相对较热 ,远超过 27°C(80°F),当采用高密度 IT 设备时 将会超过 38°C(100°F)。因此,任何进入数据中心的人在步入这种高温环境时都会产生不适,在这种环境下连基本的巡视都很不现实。采用 CACS,需要调整人员的预期是他们明白这种较高的温度是“正常的”,而不是系统即将宕机的表现。这种观念上的变化也会因为技术人员不情愿进入数据中心在高温环境下作业而受到质疑。
不仅如此,在使数据中心的运行在较高的温度时,必须为非成行排列的 IT 设备(例如磁带库和大型主机)采取特殊的措施。采用 CACS 时,房间作为一个充满热空气的“热池”,这些设备将需要通过定制的风管从密闭的冷通道获得冷风。在热环境中部署打孔地板虽然可以有助于冷却这种设备,但是破坏了使用气流遏制系统来减少冷、热风混合的初衷。此外,机房内的电源插排、照明、消防和其它系统将需要重新对温升后的可行性进行评估。
热通道气流遏制与冷通道气流遏制对比分析
在不考虑气流遏制系统冷、热空气泄漏的情况下,我们通过理论性分析来比较 CACS 和 HACS各自的最佳状态下的性能。而通常高架地板泄露比例约为 25-50%,气流遏制系统的泄露约为 3- 10%。用于本分析的的假设如附录中所列。节能冷却模式的运行时间(以小时计)和 PUE 是通过对节能冷却模式时长进行建模和对数据中心 PUE 进行建模估算得到的。在此也同时对无气流遏制系统的传统数据中心进行分析,作为分析 CACS 和 HACS 影响的基准值。
表1 无气流遏制、HACS 和CACS 的结果
对 CACS 和HACS 都比较了以下三种温度状况:
1.IT进风温度维持恒定的 27°C(80.6°F) – ASHARE 推荐的进风温度的最大值 7
CACS – 未封闭的区域(热通道)无温度限制会影响人员的舒适性和独立 IT 设备的安全性
HACS – 未封闭的区域(冷通道)的温度限制在与 IT 进风温度相同
2.未封闭的开放作业区域温度维持恒定的 27°C(80.6°F) – ASHARE 推荐的进风温度的最大值
CACS – 需大幅降低 IT 进风温度以保持未封闭区域(热通道)的温度
HACS –IT 进风温度限制在与未封闭的区域(冷通道)的温度相同
3.未封闭的开放作业区域保持 24°C(75°F) – 标准的室内设计温度
CACS – 需大幅降低 IT 进风温度以保持未封闭区域(热通道)的温度
HACS – IT 进风温度限制在与未封闭的区域(冷通道)的温度相同
表 1 总结分析的结果, 所使用的参数如下:
IT 进风干球温度
数据中心作业环境,即未封闭空间干球温度和湿球黑球温度(WBGT)
节能冷却模式运行时间 – 一年内不需要冷水机工作的时间
立方米每秒(m3/s)立方英尺每分钟 (CFM) – 由 CRAH 装置所提供的总风量与 IT 设备需要的风量之比
PUE – 数据中心行业的标准效率参数
下表中第一行提供的无气流遏制系统的数据中心的基准值。
情况 #1 结果:
在这种情况下,CACS 在最佳状态运行时可以获得 6,218 小时的节能冷却模式运行时间,PUE约为 1.65。在忽略人员健康与舒适性以及独立 IT 设备安全性的情况下,CACS 和 HACS 的效率是相当的。但是在这种状态下的作业环境干球温度达到不现实的 41°C(106°F),相对湿度21%。 这相当于湿球黑球温度(WBGT) 为 28°C(83°F),几乎达到 OSHA 所允许的湿球黑球温度 WBGT 的最大上限 30°C(86°F)。这对 IT 人员的作业环境和独立 IT 设备来说是不现实的。实际上,这种高温会加剧冷空气的泄露。这种泄露的影响将在之后的“气流泄露对理论分析的影响”章节中加以讨论。
情况 #2 结果:
在这种情况下,作业环境温度保持在 27°C(81°F),会导致 CACS 的年度节能冷却时间降低为2,075 小时,PUE 与情况#1 相比变差而升高 13%。相应的 IT 进风温度变为 13°C(56°F)。采用 HACS 的结果在情况#2 下与情况#1 的相同,因为两者的进风温度相同。情况#2 中的 CACS和 HACS 都可以保证一个可以接受的 IT 设备进风温度在 ASHRAE 推荐的范围之内,但是作业环境温度与人员舒适性的要求还有一定差距。HACS 系统可以提供 4,143 小时的年度自然冷却运行时间,以及 PUE 优于采用 CACS 时 11%。
情况 #3 结果:
当作业环境温度限制在 24°C(75°F)时,可满足人员舒适性的要求。这个温度会导致 CACS 的年度节能冷却时间降低为 0,PUE 与情况#2 相比变差而升高 6%。相应的 IT 进风温度变为 10°C (50°F)。这时,HACS 的节能冷却模式的运行时长降低至 5,319 小时,PUE 为 1.69。情况#3中的 CACS 和 HACS 都可以保证一个可以接受的作业环境温度和 IT 设备进风温度在 ASHRAE推荐的范围之内。与采用 CACS 相比,HACS 系统可以提供 5,319 小时的年度自然冷却运行时间,以及 PUE 优于采用 CACS 时 15%。
表2 CACS 和 HACS 的成本明细,最高作业环境温度为24°C(75°F)
表2 对上述情况#2 和情况#3 中的 CACS 和 HACS 两种情况的能耗进行细化和量化。能源成本被细化为 IT,供电,制冷和数据中心总体能耗。
IT 能耗包括所有 IT 设备,为恒定的 700kW
供电能耗包括开关柜、发电机、UPS、主要和关键辅助设备、照明以及关键配电等系统所产生的的损耗
总体能耗包括 IT、供电、制冷的能耗之和,并与 PUE 直接相关
典型数据中心中,按 50%的负载率算,IT 能耗在总体能源成本中占有最大的比例,其次是制冷系统的能源成本。图 2 显示,降低未封闭的作业区域的温度时,采用 CACS 的能耗上升(6%)远远高于采用 HACS 的能耗上升(2%)。这是因为当未封闭的作业区域的温度保持恒定时,采用 CACS 的的冷冻水温度设定总是低于采用 HACS 时的设定。事实上,采用 CACS 时冷冻水设定温度和服务器的温升有着直接的关系。如果提高服务器温升幅度,那么采用 CACS 而受到的损失就会更大。
现在再来研究情况#3 下的节约比例,HACS 可以减少 43%的制冷能源成本。最大的节约是停用冷水机时运行在节能冷却模式贡献的,如图 7 所示。在此作业环境温度下,受制于低的冷冻水供水温度(2.4°C /36°F),CACS 则不能受益于任何节能冷却模式。CACS 系统中冷水机额外运行时间造成的开关柜上的损耗也略有增加,造成在电力系统上的微小的差异。
将传统的无气流遏制系统的机房作为基层准来进行比较,采用 CACS 会让制冷系统多消耗 25%的能源,而让整个数据中心多消耗 8%的能源。将传统的无气流遏制系统的机房作为基层准来进行比较,采用 HACS 会减少制冷系统消耗 28%的能源,从而减少整个数据中心消耗 8%的能源。
从此分析中可以清楚地得出,在实际作业环境温度限制和温暖的气候下,热通道气流遏制系统提供比冷通道气流遏制系统更长的自然冷却时长和更低的 PUE。不管采用何种制冷架构和排热方式(无论 房间级还是行级,冷冻水还是直膨式),最终结果都是如此。
图7 情况#3 年度制冷能耗明细
气流泄露对理论分析的影响
在之前的分析中假设 CACS 和 HACS 封闭良好,所以不存在气流泄漏的。通过这种超现实的假设可以按 CRAH 装置的最大效率进行计算,这样可以将 CACS 和 HACS 进行公平的比较。在现实中,CACS 和 HACS 总会存在冷空气泄漏的问题,这就需要 CRAH 的风机提供比 IT 设备所需要的更大的风量。即使 CRAH 使用的是可调速的风机,也不例外。所提供的风量必须等于 IT 设备所需的风量 加上从气流遏制系统以及送风环节中,例如高架地板,泄漏掉的风量。例如,如果 CRAH 装置提供 47m3/s (100,000 CFM)的冷风,而 IT 设备只需要 38m3/s (80,000 CFM)的冷风, 那么其余的 9m3/s (20,000 CFM)的冷风就一定是从其它途径回到 CRAH 装置。
任何没有被用于冷却 IT 设备的的冷风都意为着能源的浪费。这种能源浪费存在于以下两种形式:1)风机用于送回风的能耗,以及 2)水泵用于推动冷冻水通过换热盘管的能耗。不仅如此,冷热风混合还会降低 CRAH 的容量。在需要排出的热量相同的情况下,冷、热风混合越严重,就需要越多的 CRAH 装置来移除热量,以保持 IT 设备进风口温度。
为了理解气流泄露的影响,引入不同的气流泄露比例来重新再进行一次进行分析。由于添加额外的 CRAH 装置意味着风机的能耗上升,但是 CACS 的能耗上升要高于 HACS。这是因为由于CACS 泄露而导致的冷热风混合要多于由于 HACS 泄露而导致的冷热风混合。采用 HACS 的热通道只会受到来自机柜进线口泄露的影响。而采用 CACS 的热通道则会受到来自机柜的进线切口、地板周边的的进线切口以及配电柜顶部和底部的进线口等的泄漏的影响。这就意味 CACS的冷空气泄漏高于 HACS 超过 50%。HACS 在制冷上的能效节约仍然存在且有效。
CACS 和 HACS 的比较总结
表3 基于本文中所述的特性对 CACS 和 HACS 进行总结。绿色阴影部分显示针对特定特性的最佳选择。
表3 冷通道气流遏制和热通道气流遏制对比总结
消防系统考量
根据数据中心的位置,在 HACS 或 CACS 的密闭区域内可能需要有火灾检测和/或灭火设备。首选的灭火机构通常是由温度激活的喷淋器。气体灭火剂通常是辅助系统,可由烟感器启动。美国国家消防协会标准 NFPA 75 并未表达在 HACS 或 CACS 内是否应配备喷淋器或气体灭火剂的观点。然而,NFPA 75 却表述了可适用于 HACS / CACS 的以下两项要求:
自动化信息存储系统(AISS)单元(包含可燃介质,总存储容量超过 0.76 m3)应在每一单元内由自动喷淋系统或配有延长喷射装置的气体灭火剂灭火系统加以保护(注:此信息非常重要,因为它规定了在数据中心的密闭空间内设置火灾检测和灭火装置的先例)。
保护 ITE 机房或 ITE 区域的自动喷淋系统应根据 NFPA 25“水基消防系统的检查、测试和维护标准”进行维护。
在实践中,HACS 和 CACS 已在多处现场成功安装喷淋器和气体灭火剂灭火装置,并通过了论证。 施耐德电气旗下 APC 的 第 159 号应用说明提供了更加详细的信息说明和讨论在热通道封闭环境内部署消防系统所面临的挑战和普遍的实践操作。关于给定地点的特定要求,应与 AHJ联系。
值得注意的是任何风道 (例如,高架地板或下沉的天花板) 都要按照空气分配进行额定分级。
结论
防止冷、热空气混合是所有高效数据中心制冷策略的关键所在。与传统制冷方式相比 HACS 和CACS 都有助于提升功率密度和能效。热通道气流遏制系统(HACS)是一种比冷通道气流遏制系统(CACS)更高效的方式,因为其允许更高的作业环境温度,提高冷冻水供回水温度区间设定 ,从而延长节能冷却模式的的运行时长,最终带来巨大的电力成本节约。将制冷温度设定点提高的同时,保持舒适的作业环境温度(即未进行封闭的区域的温度)。
文中的分析显示在数据中心安装 HACS 的制冷系统会比安装 CACS 的制冷系统能够保持作业环境温度在 24°C /75°F 同时,多取得 43%节能效果,由此在年度 PUE 上有 15%的改善。综上所述,本白皮书认为 HACS 应该作为新建数据中心设计方案的首选气流遏制策略。即使在初期不需要部署气流遏制系统,新建数据中心设计方案应该为将来 HACS 的部署作出预留。在现有的高架地板和房间级制冷的布局中部署 CACS 是更加容易和经济的。
本文标题:热通道与冷通道气流遏制对数据中心的影响
本文链接://www.hsggzxc.com/faq3/1066.html [版权声明]除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。