浸没式液冷技术,数据中心的发展关键

作者:兰洋科技    浏览量:4202    时间:2023年02月01日    标签:
近年来计算力需求的增加直接推动了社会的进步 。 伴随着新基建时代的到来 ,5G网络 ,人工智能和工业互联网将得到飞速发展 ,社会经济进步对计算能力的巨大需求 ,在此种情况下,提供超强算力的大型数据中心以及服务近场数据处理的边缘数据中心必将加速建设和部署。
 
根据某咨询公司发布的IDC产业发展研究报告,预计2019年到2022年中国的IDC产业,市场规模增长率将会达到26.9%,且和数据中心建设相关的行业也将连带着获得发展,那时候,中国将会形成一幅全新的数字经济时代生态版图。
 

【传统散热技术已遇瓶颈,亟需液冷技术来突破散热局限】

 
随着数据中心计算能力的提高,其局限性也会越来越明显。对新建成的数据中心来说,最大的资金投入不在建筑本身,而是设备成本、机房制冷费用等方面。
 
计算量的增加已使一些大型数据中心建设项目的资金突破10亿美元大关,其中建设制冷系统占很大比重。
 
某机构预测,目前我国数据中心的能耗85%在1.5-2.0之间,按照这一趋势,到2030年,我国数据中心的能耗将从2018年的1609亿千瓦时增加到4115亿千瓦时。
 
要解决这种高耗能问题,将会使传统的风冷式和水冷式空调的散热能力力不从心,只能通过液冷来解决,液体冷却技术不仅冷却快,能耗低,而且相当环保,液体冷却技术的发展经历了研究期(1992年以前),萌芽期(1992—2016年),小规模应用(2016年至今)。
 
第一,与传统风冷技术相比,液体的导热性是空气的25倍,同体积的液体带走的热量几乎是同体积空气的3000倍;第二,同等散热水平下,液冷噪音水平比风冷噪音降低20-35分贝;另外,在耗电方面,同体积的液体比相同体积的液体带走热量高25倍;最后,液冷噪音水平比风冷噪音低20-35分贝;常规风冷系统将给气流带来气流振动,振动将直接影响到IT系统的稳定性和寿命,但是液体冷却则完全不用担心。
 
从这个意义上不难发现,液冷系统在技术上完全没有障碍,取代风冷和水冷空调。“从风冷到液冷,改变的将不仅仅是制冷方式,而是整个数据中心生态。”当数据中心的冷却方式由风冷转变为液冷时,由此产生的变化包括服务器设计和整个数据中心的设计。当液体冷却技术进一步完善、生态系统进一步成熟时,就会引发一系列的“革命”。
 

【新基建时代下,浸没式液冷将会成为主流散热技术】

 
据相关数据显示,采用风冷系统的数据中心,有超过50%的能耗用来供给冷却系统,从而导致PUE值很难控制在1.4以下,采用了液冷技术的数据中心,应用在冷却系统的能耗可以大幅度降低,其PUE值甚至可以控制在1.1或者以下,和前者相比,机房的整体能效将有30%的提升,而CPU等核心部件的性能也可以相应提升20%,单机柜功率密度更是可以达到160Kw左右。
 
实际上,出于多种因素的考虑,在液冷数据中心领域也演化出了许多“门派”。其最典型的有浸没型、冷板型和喷淋型。然而,无论从目前的需求还是从未来数据中心的技术发展来看,相较于其它两种方式,浸没式液冷更受业界青睐。
 
就目前的需求而言,全球超大型数据中心有40%位于美国,而我国虽然位居世界第二,但只占11%。面临着日益增长的高性能计算需求,我国超大型数据中心仍面临巨大的市场缺口。这一局面在新基建时代必然是“恶补”,而“三高”(即高密度、高电力、高算力)为主要特征的超大型数据中心,正是浸没式液冷的用武之地。
 
除此之外,依靠大数据深度学习算法的成熟,近年来,人工智能的发展已经全面展开。例如人类遗传工程序列的计算、大气或洋流的模拟研究,甚至天体物理的数据处理、宇宙演化模拟等,必然伴随着大量的数据运算分析处理,包括图像的分析处理。
 
但是,这就必然需要在未来建造更多符合人工智能计算能力的以GPU为核心的大型数据中心。但对GPU来说,单片功耗可达300瓦以上,因此整个服务器的散热问题就会非常严重,冷板、喷淋等方式在效率上难以满足要求,必须依靠全浸没式液冷技术来解决。

本文标题:浸没式液冷技术,数据中心的发展关键

本文链接://www.hsggzxc.com/faq1/53.html
[版权声明]除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。

全国统一服务热线
15336679905
Copyright ©2019-2023 兰洋(宁波)科技有限公司 版权所有
ICP备案:浙ICP备2021021247号
Baidu
map