近年,伴随着人工智能、大数据、物联网技术的发展,高功率密度的超算设备成为服务器厂家纷纷布局的产品。目前高(功率)密度服务器中的单颗CPUTDP(ThermalDesignPower,散热设计功耗)200W起步,例如intelXeon处理器;GPU、NPU、TPU等专业处理器的功耗更大,例如英伟达GPUTeslaV100的TDP达到300W。另一方面,由于高密度服务器内集成的内存数量、传输速率较之前都有数量级的提升,伴随而来的内存散热问题也越来越得到重视。此外,SSD、I/O设备、VRD等设备功耗的增加也迫使服务器厂家不断优化散热设计。
图1某品牌高密度服务器
传统服务器的散热方式是强迫风冷,该方式的散热能力取决于换热系数、换热面积及换热温差。通常的做法有:
1.给高功耗的处理器加装散热翅片,以增大风冷散热面积;
2.配置变频调速的大风量风机,优化服务器内的流场布局,一方面增大了换热系数,另外也通过大风量实现小温差传热,把处理器的温度控制在合理范围内。
强迫风冷散热方式属于气体强制对流换热方式范畴,因此该种散热能力的理论上限为20-100W/(m2•••••••••K)。此外,由于高密度服务器的结构紧凑,可供风道设计的尺寸减小,空气侧的流场阻力随之增大,风机所能提供的风量由此减小。因此无论从理论上还是工程上,传统强迫风冷的方式已逐渐无法满足高密度服务器的散热要求。
通过CPU强迫风冷传热热阻与CPU散热风扇转速的关系曲线,可以使我们对风冷散热方式的能力上限有一个更直观的认识(见图2)。
图2服务器CPU散热热阻与风机转速关系
在风机转速从1000r/min提高到4000r/min的过程中,CPU散热中对流占主导,空气流速增加会使强制对流换热系数显著增加,即风机转速的增加可以显著的改善CPU的散热性能;在风机转速超过4000r/min后,传热热阻下降比较平缓,因为此过程中对流换热能力已经逼近极限,风机转速的增加只能改善与空气的导热传热,即此过程对CPU的散热性能影响减弱了。
传统风冷散热方案已不能满足高密度服务器的散热要求,液冷散热方式成为必然选择。由于液态载冷剂的比热容、换热系数都远高于空气,因此更满足高密度服务器的散热要求。
通过几种常见换热方式的换热能力对比(图3),液相单相强制对流换热能力比空气强制对流高2个数量级,可满足高能耗处理器的散热要求。以XeonPlatinum8180芯片为例,芯片封装后的尺寸是75mm×55mm,TDP是205W,如果采用空气强制对流换热方式,取换热温差40℃、对应最大热流密度3W/cm2,则最大换热能力为124W,不能满足散热要求。如采用液相单相强制对流换热方式,取换热温差10℃、对应最大热流密度为30W/cm2,则最大换热能力是1240W,远大于处理器的散热要求,此外还可以实现更小换热温差的传热。
图3几种换热形式热流密度与换热温差的关系
处理器的电功耗主要分三部分:空载功耗、静态功耗、动态功耗,其中静态功耗与处理器的温度息息相关。芯片温度升高,处理器内晶体管的泄漏电流增大,进而增大了处理器的静态功耗。Zapater用指数形式拟合了静态功耗Ps与处理器温度的关系:
c2、c3——经验系数
Ps——处理器静态功耗
Td——处理器壁面温度
液冷方案中实现更小的温差传热,使处理器壁面处于更低的温度,进而减少了处理器的静态功耗,即减小了散热设备的负荷,同时还提高了IT设备的电能利用效率。
综上所述,高密度服务器的散热方式必然从传统风冷向液冷转变。
本文标题:浅析高密度服务器散热的发展趋势
本文链接://www.hsggzxc.com/faq3/83.html [版权声明]除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。