欢迎来到报告吧! | 帮助中心 分享价值,成长自我!

报告吧

换一换
首页 报告吧 > 资源分类 > PDF文档下载
 

20240401_长江证券_通信设备行业“液冷加速度”系列报告一:“热”潮来袭液冷放量元年开启_22页.pdf

  • 资源ID:167876       资源大小:1.93MB        全文页数:22页
  • 资源格式: PDF        下载积分:9.9金币 【人民币9.9元】
快捷下载 游客一键下载
会员登录下载
三方登录下载: 微信开放平台登录 QQ登录  
下载资源需要9.9金币 【人民币9.9元】
邮箱/手机:
温馨提示:
用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
支付说明:
本站最低充值10金币,下载本资源后余额将会存入您的账户,您可在我的个人中心查看。
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,下载共享资源
 
友情提示
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,既可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

20240401_长江证券_通信设备行业“液冷加速度”系列报告一:“热”潮来袭液冷放量元年开启_22页.pdf

行业研究 丨深度报告 丨通信设备 Table_Title“液冷加 速度”系 列报告一:“热”潮 来袭,液 冷放量元 年开启%1 请阅读最 后评级 说明和 重要声 明 2/22 丨证券研 究报告 丨 报告要点 Table_Summary芯片功耗持续提升、PUE 管控趋严以及对 TCO 成本的追求趋势不可逆,因此对于高效的液冷散热方案的需求具备高确定性。在芯片厂商和电信运营商的 共同推动下,液冷放量元年开启。液冷升级主要在服务器侧和机房侧,因此 对应环节的升级和变化将带来新市场增量。服务器侧,国内厂商验证窗口期 打开,率先进入供应链的厂商 后续有望占据稳定市场份额;机房侧,可靠性是第一要义,客户资源是重要加持,全链条布局能力 也是加分项。当下,在液冷趋势具 备高确定性的背景下,建议重点关注卡位优势较好、能够率先实现业绩兑现的玩家。分析师及 联系人 Table_Author 于海宁 范超 温筱婷 SAC:S0490517110002 SAC:S0490513080001 SFC:BQK473%21ZBYyRnQoNoPsMnOsPtMnM9P8QbRoMpPpNtPfQqQrNjMrRtRbRqQzRvPtPoPuOqQuM 请阅读最 后评级 说明和 重要声 明 丨证券研究报告丨 更多研报请访问 长江研究小程序 通信设备 Table_Title2“液冷加速度”系列报告一:“热”潮来袭,液冷放量元年开启 行业研究 丨深度 报告 Table_Rank 投资评 级 看好丨维 持 Table_Summary2 功耗、PUE、TCO 三大 指 标推动 液冷 加速 渗透(1)AIGC 推动 功耗 快速提升,逼近风冷散 热极限。从单芯片 角度看,芯片功耗密度持续提升,英伟达 单 GPU 功耗已高达 700W,已 基本突破传统风冷系统散热能力范围;从单机架角度看,伴随高功耗 AI 服务器的上架,为在满足功耗要求的基础上提高机房的空间利用率,高功率机柜或将同步增长,传统风冷技术一般在单机柜 20kw 达到上 限。(2)政策严控 PUE,更高效的散热方案是关 键。高效的温控 系统是降低 PUE 的关键。传统风冷方案 PUE 一般在 1.5 左右,采用液冷 PUE 可降低至 1.2 以 下,若想严格达成政策目标,液冷迫在眉睫。此外,“十四五”期间我国单位 GDP 能耗目标任务艰巨,数据中心作为新耗能大户,在平衡能耗目标和 AI 建设的背景下,或进一步催化液冷加速渗透。(3)生命周期成本更低,长期 经济性显著。基于 单项目测算举例,仅考虑机房侧基础设施配套建设,在单机柜 30kw 的项目基础上,冷板式液冷 TCO具备绝对优势;单项浸没式液冷若采用国产优质氟化液,TCO 与风冷也能够实现基本持平。液冷放 量元 年开 启,多角 色共同 助力 受益于技术和产业 链的不断成 熟,液冷逐步实现 普惠应用。2022 年我国液冷数据中心(服 务器+基础设施)市场规模为 68.4 亿元,其中 泛互联网和泛政 府的 需求规模最大。综合考虑产业链成熟度、客户接受度等多因素,预计冷板式将是短期放量的主流方案。电信运营商是液冷落地的核心推手,液冷三年愿景 明晰,液冷服务器招标比例已较为乐观。芯片厂商底层推动液冷市场化,英伟达 GB200 启用液 冷方案,国内华为的液冷探索积极,英特尔 持续推进标准化。液冷打 开国 内相 关产 业链 的新认 证窗 口期 液冷产业链所包含环节众多,中游(液冷服务器、基础设施 服务商以及液冷系统集成方)是产业链核心环节。根据 IDC 温控 方案 拆分,液冷升级主要在服务器侧和机房侧,对应环节的变动将带来新市场增量。液 冷服务器:液冷布局已是共识,市场 突围依靠客户资源、运维方案、设计能力等综合实力考量。服 务器侧:供应链较为封闭,头部 玩家为台资散热大厂,液冷打开国内厂商验证窗口期,率先进入供应链的厂商 后续有望占据稳定份额。机房侧:可靠性是第 一要义,主要 来自研发投入 和 know-how 积累,客户资源是重要加 持,全链条布局能力也是加分项。投资建 议 芯片功耗持续提升、PUE 管控趋严以及对 TCO 成本的追求趋势不可逆,故对于高效的液冷散热方案的需求具备高确定性。在芯片厂商和电信运营商的推动下,液冷放量元年开启。拆解 IDC温控方案来看,液冷升级主要在服务器侧和机房侧,对应环节的变动 将带来全新市场增量。服务器侧,供应链较为封闭,液 冷打开国内厂商验证窗口期,率先进入供应链的厂商 后续有望占据稳定市场份额;机房侧,可 靠性是第一要义,主要来自于研发投入以及 know-how 积累,客户资源是重要加持,全链条布局能力也是加分项。当下,在液冷趋势具备高确定性的背景下,建议重点关注 卡 位优势 较好、能够率先实现 业绩兑现的玩家,重点推荐:(1)液冷全链条布 局、已切入多个大客户供应链的 英维克;(2)行业内首批批量交付 液冷数据中心的先驱者 润泽科技;(3)可提供液冷服务器及解决方案的 烽火通信。风险提 示 1、液冷 落地节奏 不及预期;2、液冷市场竞争加剧。Table_StockData 市场表现 对 比图(近 12 个月)资料来源:Wind 相关研究 Table_Report 国家引导算力超 前建设,底层 驱动力切 换有望提升国产算力景气 度2024-03-13 航天科技活动蓝 皮书发布,星 座建设再 提速2024-02-29 轻舟已过万重山 流量与 AI 加持,网 络可视化有望复苏2024-02-25-26%-10%6%22%2023/3 2023/7 2023/11 2024/3通信设备 沪深300指数2024-04-01%3 请阅读最 后评级 说明和 重要声 明 4/22 行业研究|深度报 告 目录 IDC 温控方案概览.6 功耗、PUE、TCO 三大指标推动液冷加速渗透.7 AIGC 推动 功耗 快速 提升,逼近风 冷散 热极 限.7 政策严 控 PUE,更 高效 的 散热方 案是 关键.9 全生命 周期 成本 更低,长 期经济 性显 著.10 液冷放量元年开启,多角色共同助力.12 冷板式 是液 冷方 案放 量的 关键支 撑.13 发布液 冷三 年愿 景,电信 运营商 是落 地的 核心 推手.14 芯片厂 商底 层推 动,加速 液冷市 场化 推广.15 液冷打开国内相关产业链的新认证窗口期.16 液冷服 务器:液 冷布 局已 是共识,综 合实 力是 关键.17 服务器 侧:抓住 认证 窗口 期,抢 先进 入供 应链.18 机房侧:可 靠性 是第 一要 义,客 户资 源是 重要 加持.18 投资建议.19 风险提示.20 图表目录 图 1:IDC 温 控风冷 与液冷 示意图.6 图 2:数据 中心液 冷方案 原 理示意图.7 图 3:IDC 单 机柜平 均功率 密度占比.8 图 4:单机 柜密度 和冷却 方 式.8 图 5:数据 中心建 设成本 拆 分.9 图 6:各等 级 PUE 的能 耗 分布.9 图 7:2022 年 数据中 心实 际 PUE 与政策 要求 PUE 差异.10 图 8:“东数西 算”区域 平均 PUE 值.10 图 9:中国 液冷数 据中心(服务器+基础 设施)市场规 模(亿元).12 图 10:中 国液冷 数据中 心 基础设施 市场部 署规模 及单 位散热成 本.12 图 11:2022 年 中国液 冷数 据中心市 场行业 需求结 构.12 图 12:冷 板式及 浸没式 液 冷数据中 心使用 比例.13 图 13:冷 板式液 冷方案 对 服务器侧 和机房 侧的改 动均 较小.13 图 14:浸 没式液 冷实地 部 署图.13 图 15:2021 年中国 市场主 要厂商浸 入式冷 却液方 案销 量市场份 额.14 图 16:2021 年中国 市场主 要厂商浸 入式冷 却液方 案单 价(美元/千克).14 图 17:运 营商液 冷三年 愿 景.14 图 18:英 伟达获 美国能 源 部拨款项 目服务 器示意 图.15 图 19:英 伟达 GB200 NVL72 计算 架构.15 图 20:液 冷数据 中心产 业 链.16%4/GDmcpIPz6df+xdg2XnycciCYydMK33bsDsO0TSEcfbuT/CYFyn1tuC8KfXD93YM 请阅读最 后评级 说明和 重要声 明 5/22 行业研究|深度报 告 图 21:2022 中国液 冷服务 器市场份 额.17 图 22:中 国液冷 数据中 心 市场服务 器厂商 竞争态 势.17 图 23:2020-2023H1 中 国 液冷数据 中心基 础设施 厂商 的竞争力 及其变 化情况.18 表 1:三种 液冷方 案技术 指 标对比.7 表 2:主流 CPU 与 GPU 功耗对比.7 表 3:国家 层面 PUE 相 关 政策梳理.9 表 4:TCO 分析项 目假定 条件.10 表 5:CAPEX 分析.11 表 6:OPEX 分析.11 表 7:CAPEX 分析.11 表 8:运营 商 AI 服 务器招 标情况.15 表 9:液冷 交付模 式比较.16%5 请阅读最 后评级 说明和 重要声 明 6/22 行业研究|深度报 告 IDC 温控 方案 概览 根据冷却介质 不 同,数据中心冷却 方式 分为 风冷和液冷。数据 中心 作为 持续的产热大户,高效且稳定的散热系统 是重要的配套设施,根据冷却介质差异可划分为风冷和液冷两种方案。风冷 方案 利用 空 气作 为冷 却 介质,液冷 则以 高 比热 容的 液 体作 为 热量 传输 媒 介。相比传统风冷,液冷技 术 具备更高的散热效 率、低能耗、低 TCO、低噪声 和低占地面积等显著优势,是 现阶段及未来长期内电子设备 解决散热压 力、应对节能挑战的 重要途径。液冷升级在于 机 房侧,服务器与机房内散热 方式强绑定。一套 完整的 IDC 温控方案可拆解成 机房侧和室外侧 两部分,机房侧又可进一步拆解成服务器内和机房内两部分,机房侧两部分 散热环节 通常需要同步变动。室外侧通过水冷散热的方式已应用较为广泛,以冷冻水方案最为典型。目前,我们所说的液冷主要指的是机房侧的升级,即服务器内和机房内 的散热方案升级,室外侧整体变动不大。图 1:IDC 温控 风冷与 液冷示 意图 资料来源:长江 证券研 究所 液冷 方 案可分 为 冷板式、喷淋式和浸没式三 种,其中浸 没式又可进一步划 分为 单相浸没式和 双 相浸没 式 两种。冷板式液冷:将液冷板与发热 器件(如 GPU、CPU)紧密固 定,冷板中存在多条极细的流道,冷却液经过流道 将发热器件的热量 带出,运输至后端冷却。冷板式液冷的冷却液多采用去离子水。该 方案下发热器件与冷却液不发生直接接触。喷淋式液冷:依靠泵压或重力 驱动,向发热设备自上而下精 准喷淋冷却液,吸收并带走热量,排走的热流体与外部环境冷源进行热交换,冷却液无相变。该方案下发热器件与冷却液需要直接接触。浸没式液冷:发热器件完全浸 没在冷却液中,依靠流动的冷 却液吸收热量。若冷却液在循环散热过程中始终维持 液态,仅依靠液体流动带走热量,则为 单相浸 没式;若在散热过程中冷却液受热升温汽化,升至顶部遇冷凝器后再次凝结成液滴回流,即 冷却液 发 生了 气 态 和液 态 的转 换,则 为 双相浸没式。浸 没式 液 冷 的 冷 却液 主要有碳氟化合物和碳氢化合物两种。该方案下发热器件与冷却液需要直接接触。%6 请阅读最 后评级 说明和 重要声 明 7/22 行业研究|深度报 告 图 2:数据中 心 液冷 方案原理 示意 图 资料来源:数 据中心 液冷技 术应用 研究 进展 肖 新文,长江证 券研究 所 表 1:三种液 冷方案 技术指 标对比 技术 指标 冷 板式 喷 淋式 浸没 式 前期部署 初期投入 成本 平均运营 成本 可维护性 空间利用 率 设备兼容 性 安装简易 型 技术效果 散热性能 可靠性 能效 后期运维 可维护性 单板腐蚀 性 资料来源:科智 咨询,赛迪顾 问,长 江 证券研究 所(注:代表 最优,星数越少 代表该 指标越 弱)功耗、PUE、TCO 三大 指标 推动 液冷加速 渗透 AIGC 推动 功耗快 速 提升,逼 近风冷 散 热极限 芯片功耗密度 持 续提升,GPU 功耗较 CPU 显著更高。随着内 核数量的增加,处理器性能与功率实现了同步增长,带动 CPU 单芯片功耗同步提升,2023 年 Intel 发布的第 5代至强可扩展处理器 系列单芯片功耗已 达到 385W。而 GPU 由数百个内核组成,可同时处理数千个线程,功耗较 CPU 显著更高,英伟达 H100 SXM 版本 单 GPU 芯片功耗达到 了 700W,已突破传统风 冷系统散热能力范围。表 2:主流 CPU 与 GPU 功耗对 比 芯 片 型号 类 型 厂家 TDP 至强 E-2300 系列 CPU 英特尔 65W95W 至强 D-2700 系列 CPU 英特尔 96W126W 至强 W-3300 系列 CPU 英特尔 220W270W%7 请阅读最 后评级 说明和 重要声 明 8/22 行业研究|深度报 告 至强 Max 系列 CPU 英特尔 350W 第 5 代 至强可 扩展处 理器系 列 CPU 英特尔 385W EPYC 7002 系列 CPU AMD 120W-280W EPYC 7003 系列 CPU AMD 155W-280W EPYC 9004 系列 CPU AMD 200W-360W V100 GPU 英伟达 250W/350W L40 GPU 英伟达 300W A100 GPU 英伟达 300W/400W H100 GPU 英伟达 300W-350W/700W Instinct MI250X GPU AMD 560W Instinct MI250 GPU AMD 560W 资料来源:Intel,AMD,英伟达,长江 证券研究 所 高功耗服务器 带 动单 机 柜功率密度提升,已 突破 传统风冷散热上限。单台通用服务器通常仅配置 2 颗 CPU,单台服务器功耗通常不到 1kw,而根据英伟达提供的数据,DGX H100 AI 服务器配置了 8 颗 H100 GPU 和 2 颗 x86 CPU,受新增多颗高功耗 GPU 配置影响,DGX H100 服务器的系统功耗最大可达 10.2kw,较 通用服务器大幅提升。根据 CDCC 数据,2022 年我国存量 IDC 机柜平均功率仍集中 在 8kw 以下。若仍采用当前主流的 8kw 以下机柜,则单 机柜仅能放置一台 H100 服务 器,且机柜间排布需有一定间隔 以完成散热,机房使用效率将大幅降低。因此,伴随高 功耗 AI 服务器的上架,为在满足功耗要求的基础上提高机房的空间利用率,高功率机柜 或将同步增长。而自然风冷的数据中心单柜密度 一般只支 持 8-10kw,冷热风道隔离的 微模块加水冷空调水 平制冷在 15kw 以上性价比将大幅降 低,传统风冷技术一般 在单机柜 20kw 达到上限。图 3:IDC 单机 柜平均 功率密 度占 比 图 4:单机柜 密度和 冷却方 式 资料来源:CDCC,长江 证券研 究所 资料来源:赛迪 顾问,长江证 券研究 所 6%15%49%45%34%15%8%15%3%10%0%10%20%30%40%50%60%70%80%90%100%2021 20222-4kw 4-6kw 6-8kw 8-12kw 12-20kw%8 请阅读最 后评级 说明和 重要声 明 9/22 行业研究|深度报 告 政策严控 PUE,更 高效的散 热方案 是 关键 PUE 是表征数据中 心能耗的核心指标,温控系统 是 降低 PUE 的关键。PUE 为数据中心总耗电量与 IT 设备耗电量的 比值,其值越接近 1,说明数 据中心对于电能的利用越有效。从成本结构来看,以冷冻水系统方案为例,精密空调占比仅为 7%,整个温控系统(精密空调+冷水机组+冷却塔)占比约 18%,价值量相对较 低。但从能耗结构来看,空调系统是仅次于 IT 设备的第二 大耗能系统,当空调系统能耗占 比由 38%降至 17.5%时,PUE 将从 1.92 下降至 1.3,所 以降低空调系统能耗是降低 PUE 的重要举措。图 5:数据中 心建设 成本拆 分 图 6:各等 级 PUE 的能 耗分布 资料来源:艾瑞 咨询,长江证 券研究 所 资料来源:中数 智慧信 息技术 研究院,长江证券 研究所 政策严控 PUE,新建项目条件更为苛刻,存量改造需求同步提升。随着碳中和碳达峰战略的深入推进,针对数据中心这一用电大户,国家层面以及地方政府均出台了系列政策对 PUE 进行严控。新建项目 方面,普遍要求新建的大型及以上数据中心 PUE 不超过1.3,对国家枢纽节点的 PUE 要求更为严苛,“东数”节点要 求控制在 1.25 以内、“西算”节点要求控制在 1.2 以下;存量项目方面,要求逐步对 PUE1.5 的数据中心进行改造。据统计,传统风冷方案的数据中心 PUE 一般在 1.5 左右,采用液冷的数据中心PUE 可以降低至 1.2 以下,从当前实际情况来看,实地运行 的数据中心 PUE 较政策要求仍有较大差距,若想严格达成政策目标,液冷迫在眉睫。表 3:国家层 面 PUE 相 关政策 梳 理 发 布 日 期 发布机 构 政 策名 称 具 体要求 2021 年 7 月 工信部 新型数 据中心 发展三 年行动 计划(2021-2023 年)到 2021 年底,新建 大型及 以上数 据中心 PUE 降低 到 1.35 以下;到 2023 年底,新建 大型及 以上数 据中 心 PUE 降 低到 1.3 以下,严寒 和寒冷 地 区力争降低到 1.25 以下。2021 年 10 月 国家发改 委、工信部等 关于严 格能效 约束推 动重点 领域 节能降碳的 若干意 见 新建大型、超大 型数据 中心电 能利 用效率不 超过 1.3。到 2025 年,数据中心电能利用 效率普 遍不超 过 1.5。2021 年 11 月 国管局、国家发改委等 深入开 展公共 机构绿 色低碳 引领 行动促进碳 达峰实 施方案 推动存量“老旧”数据 中心升 级改造,“小散”数据 中心腾 退、整 合,降 低“老旧小散”数据中心 能源消 耗。新 建大型、超大型数 据中心 全部达 到绿色 数据 中心要求,绿色 低碳等 级达 到 4A 级以上,电能利 用效率(PUE)达 到 1.3 以下。2021 年 12 月 国家发改 委、中央网信办 等 贯彻落 实碳达 峰碳中 和目标 要求 推动数据中 心和 5G 等新 型基础 设施 绿色高质量 发展实 施方案 到 2025 年,全国新 建大型、超大 型数据中 心平均 电能利 用效率 降到 1.3 以下,国家 枢纽节 点进一 步降 到 1.25 以下。逐步对 电能利 用效率 超过 1.5 的数据中心进 行节能 降碳改 造。2021 年 12 月 国家发改 委、中央网信办 等 关于同意 宁夏回 族自治 区/内 蒙古自 治区/甘肃 省/贵州省 启动建 设全国 一 体化算力网络 国家枢 纽节点 的复函 抓紧完成 起步区 建设目 标:数 据中 心平均上 架率不 低于 65%。数 据中 心电能利用效率 控制 在 1.2 以下,可再生 能源使用 率显著 提升。2022 年 2 月 国家发改 委、中 关于同意 粤港澳 大湾区/成渝 地区/长三 抓紧完成 起步区 建设目 标:数 据中 心平均上 架率不 低于 65%。数 据中 心电能23%20%18%8%8%7%3%6%4%3%柴油发电机组电力用户站UPS配电柜冷水机组精密空调冷却塔机柜列头柜静电地板52%67%77%38%26%17.50%7%5%4%1%1%0.50%0%10%20%30%40%50%60%70%80%90%100%PUE=1.92 PUE=1.5 PUE=1.3IT 设备 空调系统 电源系统 照明系统%9 请阅读最 后评级 说明和 重要声 明 10/22 行业研究|深度报 告 央网信办 等 角地区/京津冀 地区启 动建设 全国一 体化算力网 络国家 枢纽节 点的复 函 利用效率 指标控 制在 1.25 以 内,可再生能 源使用 率显著 提升 2022 年 7 月 工信部、国家发改委等 工业能 效提升 行动计 划 到 2025 年,新建大 型、超 大型数 据中心电 能利用 效率优 于 1.3 2022 年 8 月 工信部、国家发改委等 信息通 信行业 绿色低 碳发展 行动 计划(2022-2025 年)到 2025 年,全国新 建大型、超大 型数据中 心 PUE 降到 1.3 以 下,改建核心机房 PUE 降到 1.5 以下 资料来源:国家 发改委,中央 网信办,工信部,国管局,长江 证券研 究所 图 7:2022 年数据 中心实 际 PUE 与政策要 求 PUE 差异 图 8:“东 数西算”区域 平均 PUE 值 资料来源:科智 咨询,长江证 券研究 所 资料来源:科智 咨询,长江证 券研究 所“十四五”期间我国单位 GDP 能耗目标为降低 13.5%,按 照目前完成度推 算,2025 年单位 GDP 能耗 需 降低 8.3%,幅度较大。“十四五”规划纲要 将“单位 GDP 能源消耗降低 13.5%”作为经济社会发展 主要约束性指标之一。目前“十 四五”前三年完成 3.3%,2024 年根据政府工作报告,目 标为单位 GDP 能耗下降 2.5%,假设 2024 年完成目标规定的 2.5%,则到 2025 年完 成“十四五”规划要求的 13.5%的目标,2025 年需要降低 8.3%,目标任务艰巨。当下正处在国内外 AI 军备竞 赛的 关键阶段,我国 智算中心建设持续推进,数 据中心作为 新耗能大户,在 平衡能耗目标和 AI 建设的 背景下,或进一步催化更高效 的 液冷散 热方案加速渗透。全生命周 期成本 更 低,长期 经济性 显著 数据中心全生 命 周期成 本(TCO)包含 CAPEX 和 OPEX 两部分,具体包括了数据中 心配套设备 购置 成 本(也 可理解为折旧 部分)以及建成后的运营支出。此处我们选取北京奕信通的 实际项目测算 结果,来进行具体 TCO 分析,测算 不包含服务器 相关投资和运营支出。但需要注意的是,不同项目、不同假定条件均会使结果出现偏差,因此实际项目中需要定制化测算 风冷和液冷的投资回报,此处仅为特定案例的参考测算。表 4:TCO 分析 项目假 定条件 区 域 华东地区 暖 通 系 统 风冷模型 水冷冷水 机组+精 密空调 板冷模型 冷板液冷+间接蒸 发冷却 浸没模型 单相浸没 液冷+氟 化液(国产优 质)1.31.21.251.31.571.481.561.6611.11.21.31.41.51.61.7全国 北京 上海 广东政策要求数据中心PUE 现阶段数据中心运行PUE1.481.561.661.681.351.401.451.501.551.601.651.70京津冀 长三角 大湾区 成渝地区%10 请阅读最 后评级 说明和 重要声 明 11/22 行业研究|深度报 告 电 气 系 统 2N UPS 架构;N+1 柴发 机 柜 30kW;服 务器负 载率 80%风液比 5:6 测 算 对 标 体 量 2*20MVA 外电 对应体 量 IDC 成 本 测 算 范 围 不包含服 务器折 旧和服 务器运 营商 支出;不 包含土 地成本;财 务 测 算 参 数 IRR=10%;机 电折 旧 10 年;土建 折旧 30 年;12 个 月线性 上架;资料来源:北京 奕信通,长江 证券研 究 所 CAPEX 分析:在初始的机电投资中,采用液冷方案会使得 暖通系统的投资增加,但电气及装修方面投入会减少部分,同时 整体承载的 IT 量会较 风冷 有所增加,因此冷板式液冷方案折算到单位 ITkW 的 机电成本 会相对更便宜。土建方面,液冷 相比风冷对承重要求会有所提升但不会增加太多,但对建筑面积 的要求会显著更小,所以该条件下 冷板和单相浸没方案的土建成本较风冷均更低。再考虑 外电和能评部分,液冷项目拿到 外电和能评指标较风冷项目 容易得多,折算到单位负载 的付出也相对更低。整体来看,冷板式液冷的机电+土建+外电+能评的总支出较 风冷显著更低。表 5:CAPEX 分析 风冷(元/ITkW)板冷(元/ITkW)单 相浸没(元/ITkW)机电 16000-18000 15000-17000 23000-28000 土建 5000 3000 3500 外电+能评 4000 2000 2000 机电+土建+外电+能评 25000-27000 20000-22000 28500-33500 资料来源:北京 奕信通,长江 证券研 究 所 OPEX 分析:由于液冷方案的 PUE 较 风冷显著更低,因此无论是单相浸没式还是冷板式,在运营成本 上优势均很明显。表 6:OPEX 分析 风 冷(元/ITkW/月)板冷(元/ITkW/月)单相 浸没(元/ITkW/月)OPEX(含 水费、电费)780-810 670-700 650-680 资料来源:北京 奕信通,长江 证券研 究 所 从整 个 TCO 分 析来看,仅考虑机房侧基础 设施配套建设,在单机 柜 30kw 的项目基础上,冷板式液冷 TCO 具备绝对优势;单项浸没式液冷若 采用国产优质氟化 液,TCO 与风冷也能够实 现 基本持 平。表 7:CAPEX 分析 风 冷(元/ITkW/月)板冷(元/ITkW/月)单相 浸没(元/ITkW/月)CAPEX 417-451 358-386 496-581 OPEX 780-810 670-700 650-680 TCO 1197-1261 1028-1086 1146-1261 资料来源:北京 奕信通,长江 证券研 究 所%11 请阅读最 后评级 说明和 重要声 明 12/22 行业研究|深度报 告 液冷放量 元年开 启,多角 色共同 助力 从“黑科技”迈 向普惠 应用,单位散热成本不 断下探。受益于 技术和产业链的不断成熟,液冷 逐步实现普惠应用。据赛迪顾问,2022 年我国液冷数 据中心(服务器+基础设施)市场规模为 68.4 亿元,其中 服务器规模 或占大头。从成本端看,伴随技术及应用成熟落地,单位功率散热成本得以持续下降,加权平均冷板、喷淋和浸没三种路径的基础设施侧单位成本,或 于 2023 年 已降至接近 5000 元。但需要 注意的是,单位成本为 折算的概念,在实际 不同的应用中差异幅度仍较大。图 9:中国液 冷数据 中心(服务器+基础设施)市场 规模(亿元)图 10:中 国液冷 数据中 心基础 设 施市场部 署规模 及单位 散热成 本 资料来源:赛迪 顾问,长江证 券研究 所 资料来源:赛迪顾 问,长 江证券 研究所(注:由于 液冷数 据中心 基础设 施要匹 配 数据中心 实 际情况,不同环 境导致 相同规 模的液冷 数据中 心投资 差别较 大,不具 备可比性,因 此测算 采用了 功率部 署规模 作 为统一衡 量标准)目前,泛互联网 和 泛政 府的液冷应 用最为广泛。2022 年,中国液冷数据中心市场需求中,云和互联网行业需求规模最大,一方面,以公有云为代表的应用场景具有高密属性,需要采用更为高效的散热方式;另一方面,头部企业在自有数据中心中进行液冷技术探索与验证。泛政府领域需求 排名第二,主要用于政府主导的超算中心、智算中心以及相关企事业单位的试点项目。电信行业 需求排名第三,自 2017 年电信运营商即在自有数据中心进行液冷试点,到目前已在全国开展超 200 个试点项 目,并将继续推进大规模试点。此外,教育、能源、制造等领域也逐步开展液冷技术试点应用。图 11:2022 年 中国液 冷数据 中心 市场行业 需求结 构 资料来源:科智 咨询,长江证 券研究 所 43.954.768.450.2010203040506070802020 2021 2022 2023H131124.1139.2111.612000850065005000020004000600080001000012000140000204060801001201401602020 2021 2022 2023H1部署规模(MW)单kw散热成本(右轴,元)%12 请阅读最 后评级 说明和 重要声 明 13/22 行业研究|深度报 告 冷板式是 液冷方 案 放量的关键 支撑 综 合 考虑 产 业链 成熟 度、客 户接 受 度等 多 因素,预 计冷 板 式将是短期 放 量的 主流 方案。冷板式液冷已经在 HPC、AI 高密计算领域商用超过 8 年时间,技术成熟、生态完善、总体成本可控,整体产业链相对更为成熟。此外,从实物图可以看出,冷板式液冷较风冷时 服务器侧和机房侧的改动 均较小,对 客户的使用习惯改变不大,硬盘、光模块等部件与风冷一致,运维模式、机房承重与风冷场景也 较为类似,更适合当下 进行规模商用。现阶段,中国液冷数据中心市场以冷板式为主,在智算中心建设加速的背景下,综合考虑 产 业链 成 熟度、客 户 接受 度等 多 因素,我们 认为 短 期内 放量 仍 将以 冷 板式 方案 为 主。图 12:冷 板式及 浸没式 液冷数 据 中心使用 比例 图 13:冷 板式液 冷方案 对服务 器 侧和机房 侧的改 动均较 小 资料来源:科智 咨询,长江证 券研究 所 资料来源:电 信运营 商液冷 技术白 皮书,长江 证券研 究所 浸没式多处在 试 点阶段,放量仍需解决价格 高昂、客户 接受度 低等问题。浸没式液冷需要将 IT 设备完全浸泡在 冷却 液中,一方面机房侧和服务器侧整体改动较大,另一方面该方案也 给客户的使用习惯带来较大改变,尚需进行更深入的市场教育。此外,当前浸没式液冷的冷却液供应商 多为海外厂商,价格昂贵,国产 冷却液的成熟替代 或是解决成本问题的重要一环。图 14:浸 没式液 冷实地 部署图 资料来源:英特 尔中国,长江 证券研 究 所 64%66%64%65%66%36%34%36%35%34%0%10%20%30%40%50%60%70%80%90%100%2019 2020 2021 2022E 2023E冷板式 浸没式%13 请阅读最 后评级 说明和 重要声 明 14/22 行业研究|深度报 告 图 15:2021 年中国市 场主要 厂商 浸入式冷 却液方 案销量 市场份 额 图 16:2021 年中国市 场主要 厂商 浸入式冷 却液方 案 单价(美元/千克)资料来源:QYResearch,长 江证券 研 究所 资料来源:QYResearch,长 江证券 研 究所 发布液冷 三年愿 景,电信运 营商 是 落 地的 核心 推手 运营商提出液 冷 三年愿 景,加速液冷产业落 地。2023 年 6 月,三大运营商联合发布 电信运营商液冷技术白皮书,提 出三年液冷发展愿景:2023 年 开展技术验证、2024 年开展规模测试、2025 年及以后开展规模应用。在技 术路线 上,电信运营商现阶段 将主要推进冷板式液冷与单相浸没式液冷两种方案。当前,运营商数据中心仍以低功率机架为主,考虑到高功率机架的需求分布,液冷需求或将主要从发力 AI 的互联网厂商起步,运营商在液冷产业推进链条上排序本应较靠后。白皮书的发布标志着运营商主动成为液冷产业推动者,进一步加速液冷技术及生态成熟。运营商 推动液 冷 解耦 交 付,推进产业生态成 熟。当前液冷交 付模式包括一体化交付与解耦交付两种,由于液冷 方案耦合程度较高且 在产业化和标准化方面仍处于发展初期,当前 客户 多 选择 一 体化 交 付 模 式。但 解耦 交 付模 式更 有 利于 促进 竞 争、实 现多 厂家 适 配,便于后续灵活部署,因此,当下运营商正积极探索接口标准化,引领机柜与服务器解耦,形成开放环境,推进产业生态成熟。图 17:运 营商液 冷三年 愿景 资料来源:电 信运营 商液冷 技术白 皮书,长江 证券研 究所 服务器招标已 初 见 端倪,液冷比例较为 乐观。液冷方案落地 需要服务器侧和机房侧 基础设施 同步搭建,因此 液冷服务器的比例 可从一定程度反映液冷的渗透率。从运营商的服务器招标 情况来看,中国移动 2023 年至 2024 年新型智算中 心(试验网)项目共集采2454 台 AI 服务器,液冷比例 高达 87%;中国电信 AI 算力服 务器(2023-2024 年)项目共 集采 4175 台 AI 服务器,液冷服务器占比 25%,其中国 产 G 系列服务器液冷比例达到 47%,液冷服务器比例 已 显著高于当前行业的液冷渗透率。22.8%12.6%10.3%8.9%6.5%5.4%5.0%1.6%0.9%26.1%3M(美国)Solvay(比利时)诺亚氟化工(中国)新宙邦(中国)中国石油(中国)AGC(日本)东莞美德(中国)安美科技(中国)科慕(美国)其他89.979.170.468.240.133.421.912.96.40102030405060708090100Solvay(比利时)3M(美国)AGC(日本)科慕(美国)诺亚氟化工(中国)新宙邦(中国)东莞美德(中国)安美科技(中国)中国石油(中国)%14 请阅读最 后评级 说明和 重要声 明 15/22 行业研究|深度报 告 表 8:运营 商 AI 服 务器招 标情况 招 标 人 招标 项 目 服务 器 液冷 比 例 备注 中国移动 中国移 动 2023 年至 2024 年新 型 智算中心(试验 网)采 购 87%中国电信 中国电 信 AI 算 力服务 器(2023-2024 年)集采 25%国产 G 系列服 务器液 冷比例 达 47%资料来源:中国 移动采 购与招 标网,C114 通信网,长 江证券 研究所 芯片厂商 底层推 动,加速液 冷市场 化 推广 英伟达 GB200 启用液 冷方案,国内华为 的液冷 探索积极。2023 年 5 月,英伟达获得美国能源部 500 万美元的资金,与合作伙伴共同开发创新 型液冷数据中心,该 创新方案采用了 冷板+浸没式耦合1的方式。2024GTC 大会上,英伟达发 布 全新芯片系统 GB200,由一片 Grace CPU 和两片 B200 GPU 组成,此前英伟达 GPU 基本均 采用风冷架构,而针对新的 MGX 服务器平台 GB200 已进行液冷设计,同时 GB200 NVL72 架构也明确说明“液冷具备最优效率”。转向国内,华为的液冷探索更为积极,2017 年便推出了液冷解决方案,并于 2022 年 发布全液冷“天成”整机柜服务器。在华为昇腾及英伟达GB200 的出货带动下,有望快 速拉动 液冷服务器及配套起量。图 18:英 伟达 获 美国能 源部拨 款 项目服务 器示意 图 图 19:英 伟达 GB200 NVL72 计 算架构 资料来源:英伟 达,长 江证券 研究所 资料来源:GTC 2024,长 江证 券研究 所 英特尔联合多 位 合作伙 伴持续推进液冷行业 标准化。在传统 服务器 CPU 市场中,英特尔是绝对的王者,2022 年全球 市占率达 71%。液冷方面它是 产业标准化的重要推手:2022 年 10 月,英特尔联合 液 冷生态合作伙伴共同发布了 绿色数据中心创新实践 冷 板 液冷 系 统设 计参 考,系 统阐 述 了冷 板 液冷 系统 设 计相 关的 要 求,以 及未 来液 冷 设计需要遵守的规范要求,为 IDC 液冷方案设计与研究提供了 参考;2024 年 1 月,英特尔联合浪潮信息对业界开放首款全液冷冷板服务器参考设计,并联合合作伙伴发布 全液 冷 冷板 系 统参 考设 计 及验 证白 皮 书,为 全液 冷服 务 器设 计和 规 模应 用 中面 临的 主 要难点和痛点提供了创新设计参考。此外,在海外英特尔也持续与 Submer、GRC 等公司合作,支持浸没式液冷的部署落地。一方面,通用服务器的液冷渗透将是打开 液冷长期成长空间的关键一环;另一方面,英特尔作为 CPU 大厂积 极推动标准化,也将加速液冷产业的推广 落地。1 芯片

注意事项

本文(20240401_长江证券_通信设备行业“液冷加速度”系列报告一:“热”潮来袭液冷放量元年开启_22页.pdf)为本站会员(18709673099)主动上传,报告吧仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知报告吧(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2017-2022 报告吧 版权所有
经营许可证编号:宁ICP备17002310号 | 增值电信业务经营许可证编号:宁B2-20200018  | 宁公网安备64010602000642号


收起
展开