米乐体育官方下载安装

热线服务
手机/微信同号13926842159

米乐体育官方下载安装专业的技术、规范的管理、踏实的态度、优质的服务米乐m6手机app10年专业从事各类真空泵制造、而且熟悉爱德华真空泵故障大全的各种维修方法。 139-2684-2159

米乐体育苹果版扎根东莞,长期服务于真空泵领域内设备及配件的高科技企业,服务全国。另外需要爱德华罗茨泵油 的也可以来找我们

调速阀当前所在位置 : 首页 > 调速阀

产业+政策共振液冷数据中心有望快速渗透

来源:米乐体育官方下载安装    发布时间:2025-03-01 21:16:56

产品详情

  液冷是一种新兴的散热技术,其采用液体作为冷媒,通过液体的流动将电子设备的内部元器件运行时产生的热量传递到设备外,以实现散热的目的,确保电子设备的正常运行。

  相较于传统风冷技术,液冷技术利用了液体的高导热、高比热容特性替代空气作为散热介质,明显提升散热的效率。此外,液冷散热技术还具有噪音低、稳定性高等优势,非常适合于需要提高计算能力、能源效率、部署密度等应用场景,例如为集中放置电子信息设备提供运行环境的数据中心等场所。

  随着人工智能、云计算、5G 等技术的快速地发展,数据中心对于高效率的散热解决方案的需求日渐增长。在此背景下,液冷以其高能效、高热密度解决能力等特点,成为推动数据中心高效运行的重要技术支撑,具有广阔的发展前景。

  国内液冷服务器行业快速地发展。液冷服务器历史最早可以追溯到20 世纪60 年代,国外公司 IBM 研发出全球首台冷冻水冷却计算机 System 360,开创了液冷计算机先河;2008年,IBM 再次聚焦液冷,发布了液冷超级计算机 Power 575。

  我国液冷技术起步稍晚于国外,但自启动以来发展速度迅猛。2011 年,国内中科曙光开始做服务器液冷技术探讨研究,并于 2013 年完成了首台冷板式液冷服务器原理机和首台浸没式液冷原理验证。2015—2018 年,华为、浪潮信息、中国移动、联想、阿里巴巴等有名的公司先后推出液冷服务器解决方案或实现液冷服务器规模商用项目落地。

  2019 年开始,我国液冷服务器行业进入快速地发展阶段,技术发展进程与国际基本保持同步。2019 年,中科曙光实现全球首个“刀片式相变浸没液冷技术”的大规模部署,这一冷却技术的应用使系统性能提升5%以上。2022 年,浪潮信息发布包括通用服务器、高密度服务器、整机服务器在内的液冷全线产品,华为发布液冷“天成”整机柜服务器,液冷技术在国内服务器领域的应用持续深化。

  液冷数据中心产业链由上游液冷产品零部件及设备厂商、中游液冷产品及解决方案提供商、下游液冷数据中心应用主体构成。上游液冷产品零部件及设备包括冷却液、CDU、电磁阀、连接器、manifold、TANK 等,部分代表厂商有英维克、3M、云酷、竞鼎、诺亚、广东合一、绿色云图等。

  中游是产业链核心环节,主要涉及液冷服务器、芯片厂商以及液冷系统集成方等,该环节代表厂商有华为、中兴、浪潮、曙光、新华三、联想、超聚变、英特尔等。下游为液冷数据中心最终用户,这些用户主要分布于政府、电信运营商、互联网、金融、AI等相关领域。根据《电信运营商液冷技术白皮书》数据,预计到2025年,将有超过 50%的数据中心项目应用液冷技术。液冷应用在互联网、金融和电信等行业的需求将呈现迅速增加的趋势,预计至 2025 年,互联网行业/金融行业/电信行业的液冷数据中心将分别占据 24%/25%/23%的市场份额。

  AI 变革推动全球算力规模快速地增长。2025 年 1 月,国内DeepSeek(深度求索)公司发布 DeepSeek-R1 模型,为全球AI领域带来巨大的革新。DeepSeek-R1 模型在后训练阶段大规模使用了强化学习技术,在使用极少标注数据的情况下,明显地增强了模型推理能力,性能上比肩 OpenAI o1 正式版等海外领先大模型。

  DeepSeek-R1 通过开源策略和低成本的模型训练,大幅度降低了 AI 模型使用门槛,有望推动AI 应用加速渗透至更多细分领域,长期利好算力需求量开始上涨。根据信通院发布最新多个方面数据显示,2023 年,全球计算设备算力总规模达到 1397EFlops,同比明显地增长 54%。其中,智能算力规模为875EFLOPS,占比全球算力总规模高达 62.6%。伴随着生成式AI 大模型、垂直行业模型及端侧大模型的应用和推广,预计未来五年全球算力规模仍将以超过50%的速度增长,至2030年全球算力将超过 16 ZFlops,其中智能算力占比将超过90%。

  芯片计算能力快速提升带来散热挑战,亟需更高效散热方案支持。AI 算力需求持续增长,在促进芯片计算能力快速提升的同时芯片功耗也明显提升。目前主流CPU 处理器单芯片功耗已达 350—400W,而 GPU 的功耗更是明显高于 CPU。以英伟达GPU 处理器为例,其V100 芯片的 TDP 为 300W,到了 H100 芯片的 TDP 已经高达700W,而新一代的B200芯片TDP 更是达到了 1000W,突破了风冷极限 800W 的散热功率。

  根据英伟达的最新计划,其推出的全新AI解决方案硬件平台GB200 NVL4模块是在更大的主板上配置两个BlackwellGB200 GPU,该模块的 TDP 接近 6000W,如此高的芯片功率密度,给GPU 服务器的供电和散热等基础设施提出了颠覆式的挑战,亟需更高效的散热方案支持。

  数据中心单机柜功率密度增长,逐渐突破风冷散热极限。芯片功耗提升带来单机柜功率密度一直增长。据中国数据中心工作组(CDCC)调研数据,国内全行业数据中心中,8kW及以上功率密度的机柜占比从 2021 年的 11%提升至 2022 年的25%,高功率机柜占比明显提升。伴随着 AI 大模型加速迭代和广泛落地应用,AI 训练及推理算力需求持续不断的增加,主流 IT 机柜的功率密度预计将从目前的 6-8kW/柜提升至12-15kW/柜,而超算和智算中心的功率密度预计将超过 30kW。

  根据赛迪顾问预测指出,到2025 年,全球数据中心的单机柜平均功率将达到 25kW。单机柜 20kW 的功率密度通常被认为是风冷散热能力的天花板,20kW 以上需要采用液冷来保证数据中心运行的稳定性。随着单机柜功率密度一直增长,传统数据中心采用风冷散热已不能够满足高功率密度机柜散热需求,未来数据中心散热将从风冷转向风液混合或全液冷方案。

  减少制冷系统能耗为降低数据中心 PUE 的重要方法。PUE(电能利用效率)是衡量数据中心能源利用效率的重要指标,其定义为数据中心总能耗与IT 设备能耗的比值。数据

  中心的耗能部分除了 IT 设备的用电,还包括制冷系统、供配电系统、照明系统及其他设施(包括安防设备、灭火、防水等)。根据中国电子技术标准化研究院数据,一个典型的数据中心中,其能耗最大的部分是 IT 设备,约占数据中心总能耗的50%,其次为制冷系统设备,约占比 37%,剩下的供配电系统设备及其他设施约占比13%。

  当PUE值越接近 1,表明该数据中心用于 IT 设备的能耗占比越高,非IT 设备的能耗占比越低,意味着数据中心的能源利用效率越高。当 PUE 值越高,意味着用于IT 设备以外的额外消耗电能越多,因此整体电费支出更大,数据中心经营成本更高。一般而言,数据中心的制冷系统能耗占比仅次于 IT 设备能耗,因此降冷系统能耗是降低数据中心PUE值的重要途径。

  国内部分地区数据中心的 PUE 具有较大提升空间。根据中国数据中心工作组CDCC发布多个方面数据显示,2021 年,全国数据中心平均 PUE 为 1.49。按照地区统计分析,华北、华东地区数据中心平均 PUE 接近 1.40,处于相对较优水平,主要是受益于地理优势、地区建设及管理上的水准的提升。华中、华南地区受地理位置和上架率等因素影响,数据中心平均PUE 值接近 1.60,具有较大的提升空间。

  采用液冷技术能大大降低数据中心 PUE。与传统风冷技术相比,液冷技术具有更高的散热效率。采用液冷技术后,数据中心散热效率有所提升,这表明当数据中心需要维持在相同散热效果下时,制冷系统所需要的能耗降低。例如,液冷技术能通过取代大部分高耗能制冷设备(如空调系统、风扇等),或是减少风扇的转速、降低空调的制冷负荷等途径,有实际效果的减少数据中心制冷系统能耗,以此来降低数据中心的PUE。根据行业数据,仅采用传统风冷技术的数据中心 PUE 均值为 1.5,传统风冷技术极限值为1.25,而采用液冷技术以后,数据中心 PUE 可降低至 1.25 以下,其中,相变式浸没式液冷能够更好的降低至 1.1 以下。液冷已成为数据中心降低 PUE 值的优选方案。

  国家及各地方政府对数据中心 PUE 趋严,有望推动液冷技术快速渗透。在“双碳”目标推进及“东数西算”工程实施的背景下,国家及各地方对数据中心PUE 要求趋严,致力于推动数据中心绿色发展。在国家层面,根据国家发改委、工信部等有关部门文件,要求到 2025 年,全国新建大型、超大型数据中心平均电能利用效率降到1.3 以下,国家枢纽节点及寒冷地区进一步降到 1.25 以下,绿色低碳等级达到4A 级以上。

  2023年3月,财政部等联合发布《绿色数据中心政府采购需求标准(试行)》,明白准确地提出鼓励数据中心部署液冷系统。在国家政策引领下,各地方政府也纷纷出台相应方案或意见,积极向国家政策标准靠拢,部分省份例如宁夏对于数据中心 PUE 值提出更严格要求,对于新建大型、超大型数据中心 PUE 值提出不高于 1.2。此外,上海等地区将液冷机柜数量列入政策要求。

  2024年3月,上海市通信管理局等 11 个部门联合发布《上海市智能算力基础设施高水平发展“算力浦江”智算行动实施方案(2024—2025 年)》,其中提出,到2025 年,上海市新建智算中心 PUE 值达到 1.25 以下,存量改造智算中心 PUE 值达到1.4 以下。智算中心内绿色能源使用占比超过 20%,液冷机柜数量占比超过 50%。伴随着国家和各地方政府对数据中心 PUE 要求提升,液冷技术在散热性能上的优势更加凸显,有望推动其在数据中心中加速渗透。

  产业与政策共振,液冷数据中心前景广阔。全球算力需求快速地增长,推动芯片功耗及数据中心单机柜功率密度持续攀升,传统风冷已难满足相关散热需求,具有更高散热效率的液冷或成为必选方案。同时,“双碳”宏观形势下,政府部门对数据中心PUE监管日益趋严,液冷技术作为降低 PUE 指标的有效方案,有望在数据中心中加速渗透。

  根据北京科智咨询公司和中国信通院联合发布的《中国液冷数据中心市场深度研究报告》多个方面数据显示,近年来,中国液冷数据中心市场加快速度进行发展,2019—2022 年年复合增长率达到39.7%。2022 年,液冷数据中心市场规模达到 100.5 亿元,同比增长47.2%。基于市场需求发展及产业生态建设进程,预计在 2023—2027 年期间,中国液冷数据中心市场将以59%的复合增长率持续蒸蒸日上。到 2027 年,中国液冷生态系统有望趋于成熟,液冷数据中心的整体市场规模预计将达到 1020 亿元。

  更多行业研究分析请参考思瀚产业研究院官网,同时思瀚产业研究院亦提供行研报告、可研报告(立项审批备案、银行贷款、投资决策、集团上会)、产业规划、园区规划、商业计划书(股权融资、招商合资、内部决策)、专项调研、建筑规划设计、境外投资报告等相关咨询服务方案。返回搜狐,查看更加多

上一篇:欧阳屹:突出“五个着力” 深入学习贯彻党的创新理论

下一篇:微信更新能够「图片谈论」了!

推荐产品