20240318_中泰证券_通信行业英伟达GTC专题:新一代GPU、具身智能与AI应用_20页.pdf
证 券 研 究 报告 2024 年3 月18日 英伟达GTC专题:新一代GPU、具 身 智 能 与AI应用1中泰通信首 席 分析师:陈宁 玉(S0740517020004)Email:研究助理:佘雨 晴 Email:研究 助理:杨 雷Email:核心观点GTC2024 召开在即,关注新一代GPU、具身智能、AI 应 用 三 大方向。GTC 2024 将于当地时间3 月18-21 日在美国加州圣何塞会议中心及线上举行,预计发布加速计算、生 成式AI 以及机器人领域突破性成果。建议关注三大方向:1)B100 及后续芯片路线。B100 预计采用BlackWell 全新架构,与H200 系列相比性能有望翻倍提升,GB200 或于2024-2025 年推出,芯片迭代周期缩短至1 年,带动配套工艺及组件加速升级。2)具身智能:AgilityRobotics、波士顿动力公司、迪士尼和Google DeepMind 等公司将参加GTC 机器人相关会议,现场将展出25 款机器人。黄仁勋曾表示具身智能是AI 下一个浪潮,2024 年初英伟达投资人形机器人公司FigureAI 并成立通用具身智能体研究实验室GEAR,大会或将更新相关成果。3)AI 应用。本次GTC共有亚马逊、Anthropic、Runway 等1000 多家参会企业,300多家参展商将展示英伟达平台在农业、汽车、云服务等行业的应用。多模态大模型助力AI 赋能下游行业,提升推理侧算力与带宽要求,数据中心、CDN等或将受益AI 应用带来的新一轮流量增长。B100 性能预计大幅提升,GB200 有望超预期。英伟达将推出全新芯 片架构BlackWell,或 为英伟达首次采用多chiplet 设计的架构。B100 成为首款基于BlackWell架构的芯片,预计为MCM 多芯片封装,台积电N3 或N4P 制程工艺,可能使用CoWoS-L,性能预计至少为H200 的2 倍,H100 的4 倍;首发内存或为200G HBM3e,约为H200 的140%;或采用224Serdes。为了 更快推向市场,B100 前期版本或使用PCIe5.0 和C2C 式链接,功耗700W,方便直接沿用H100 的现有HGX 服务器,后续将推出1000W 版 本,转向液冷,并将通过ConnectX8 实现每GPU 网络的完整800G。根据英伟达芯片路线图,GB200 将于2024-2025 年推出,由CPU 和GPU 通过NVLinkC2C 连接构成,或采用NVLink5.0 及192GB HBM3e 内存,性能有望超预期提升。聚 焦 光 通信 与液 冷产 业链,关 注新 技术 变革 方向。AI芯片加速升级带动光模块、交换机等底层网络硬件迭代提速,2024 年1.6T 需求将现,速率升级同时伴随功耗成本增加等问题,硅光、LPO、CPO、薄膜铌酸锂等新技术方案导入有望加快。国内光模块厂商全球份额过半,市场竞争力较强,带动光通信产业链逐步向国内转移,上游光芯片国产替代预计加速。B100 后续迭代版本功耗或达1000W,GB200 或进一步增长至1200W,英伟达已联合行业伙伴布局混合液冷等创新散热方案。算力器件功耗持续增长对传统风冷带来挑战,AI 算力将导致数据中心能耗不断抬升与PUE 指标趋严将共同倒逼产业对液冷需求升级,冷板式液冷或率先放量,浸没式液冷为长期方向。温控、IDC、服务器、运营商等多方积极部署液冷路线。随着AI 发展,液冷产业链参与者不断增加,上下游协同增强。投资建议:重点关注 光 模块器件:中际旭创、天孚通信、新易盛、源杰科技、仕佳光子、腾景科技、光库科技、光迅科技、联特科技、太辰光等;液冷:英维克、申菱环境、高澜股份、佳力图、依米康、网宿科技等;ICT设备:菲菱科思、盛科通信、锐捷网络、紫光股份、中兴通讯等;数据中心:宝信软件、润泽科技、光环新网、奥飞数据等。风险提示:AI发展不及 预期、技术迭代不及预期、市场竞争 加剧、海外贸易争端、市场系统性 风险、研究报告使用的公开资料可能存在信息滞后或更新不 及时等 风险1ZFUzQmRoNnMoQmPqNqPrQ9PaO8OmOqQoMtPlOmMtQiNnMzQ6MpPvMwMpPnRMYsOrQGTC 2024前瞻:见证AI 的变革时刻3来源:英伟达官网,中泰证券研究所 GTC 2022:硬件 为 主,发 布全 新Hopper架构H100 GPU 及Grace CPU 超 级 芯片,第四代NVLink 和第 三代NVSwitch 技术、DGX H100 SuperPOD 等。GTC 2023:侧重软 件及服 务更新,发布及更新H100 NVL GPU,PCIe H100 等硬件,以及AI 超级 计算 服务DGX Cloud、光 刻 计算库CuLitho、GPU 加速 量子计 算系统等。GTC 2024:当地时 间3 月18-21 日举 行,黄 仁 勋将发 表主题 演讲“见证AI 的变革时 刻”,发 布加速 计算、生成式AI 以及机器人领 域突破 性 成果。会 议 期间将 举办超 过1000 场演讲、圆桌讨论、培 训等各 种 活动,来 自英伟 达、Meta、微 软、斯坦 福 等业 界 及学 术 界众多权威AI 研究 者将参 加200 多场 会议。共有1000 多家 企业 将参 加 本届GTC,包括 但 不限于 亚马逊、OpenAI、微 软、Meta、谷 歌等AI 巨头以 及Anthropic、Cohere、Runway 等AI 初创企 业。300 多家参展商 将展示 企 业如何在 航空航 天、农业、汽 车和运 输、云服务、金融 服 务、医疗 和生 命科 学、制造、零 售和 电 信 等各行业部 署英伟 达 平台。图表:GTC 2024 会 议主题 数量分 布关注一:Blackwell GPU架构及B1004来源:英伟达官网,中泰证券研究所 英 伟 达有 望 在GTC 2024 上 发布B100及B200 系列。B100 将首 次采用Blackwell 架构,基于 更复杂 的多芯 片模块(MCM)设计,与现 有采用Hopper 架构的H200 系列相 比性能 有望 翻 倍提升,预计 使用台 积电3nm 或N4P 工 艺制程,功 耗或达1000W,采用 液 冷方案,2024Q2/Q3 开始规 模生产。此外,根据 英 伟达最新 官方路 线图及IT 之家报道,预计2024-2025 年之 间 推出GB200,或采 取差异 化策略推 动 客户采 购,加 大其与B100/B200之 间 的配 置 差距,特别 在NVLink 和网络性能 方面。B100 预计配套全 新组件。此外 根据路线 图,英伟 达将于2024 年底前推 出速度 更 快、功 能更强 大的 InfiniBand 和以太网 NIC 以 及 交换机,每个端 口的 带 宽可达 800Gb/s,本次 大会上 或将有所透 露。据 Barro n s 报道,英 伟达将 于2025 年推出B200 GPU,单 张功耗达1000W,升 级 后的B200 变体可能 采用更 快版本的HBM 内存,以 及 更高 的内 存容 量,升级规格 和增强 功 能。图表:英 伟达芯 片 路线图BSMYxGCp0 xNx5VWewcqzSbzkDSe1RnSOm2svFrHBRVmYROSD8syZVz7hIiGkwI5L 关注二:具身智能/人形机器人/自动驾驶5来源:英伟达官网,中泰证券研究所 人形机器 人:AgilityRobotics、波士顿 动力公司、迪士 尼 和Google DeepMind 等公司将 参会,现 场将展出25 款机 器 人,包括 人形机 器 人、工 业 机械 手 等。英 伟达 于2018 年推 出包 含全 新 硬件、软件 和 虚拟 世 界机 器 人模 拟 器的NVIDIA Isaac,同 时还 推出 专 为机 器 人设 计 的计算 机 平台Jetson Xavier 和相关 的机器 人软件 工具包,2023 年发布 多模态 具身智 能系统VIMA 和自主移 动机器 人平台Isaac AMR。同 时,英 伟 达通过 仿真模 拟平台Omniverse 与AI 结合,帮助建 立训练 数据集,23 年3 月Omniverse Cloud 托管至微 软Azure,以扩 大英伟 达AI 机器人 开 发和管 理平台Isaac Sim 的 接 入范围。2024 年2 月英 伟达向 人形机 器人公 司Figure AI投资5000 万美元 并成立 通用具 身智能 体研究 实验室GEAR,人形机器人 作为具 身智能 优良载 体,有 望迎来 加速发 展。自动驾驶:2022 年 英伟达发 布全新 一 代自动驾 驶SoC 芯片Thor,内部拥 有770 亿个晶体 管,算 力 高达2000TFLOPS,较此前Orin 提升8倍,计划2024 年量产,极氪将 于2025 年搭载 首发。图表:英 伟达 自 动 驾驶 芯片 路线 图 图 表:英 伟 达Isaac AMR 硬 件 配置 图关注三:AI 推理/边缘计算6来源:英伟达官网,Bloomberg,中 泰证券研究所 GTC2024 有 望更 新以太 网架构 及产品、ASIC 芯 片计 划等相 关信息。英伟 达FY2024 数据 中 心业 务 收入40%来自AI 推理,AI 在汽车、医疗 和 金融服 务等垂 直领域 广泛应 用,其 正在推 出全新Spectrum-X 端到端产品 进入以 太网领 域,引 入新技 术为AI 处理提供 较传统 以太网高1.6 倍的 网 络性 能。根 据路 透社 报 道,英 伟达 正 在建 立 新业 务 部门,专注 为 云厂 商 及其 他 企业 设 计定 制 芯片(ASIC),包括 先进 的AI处理器。本次GTC 共有亚 马 逊、Anthropic、Runway 等1000 多家参 会 企业,会 上将展 示 英伟达平 台在农 业、汽车、云服务 等 行业的应 用,英 伟 达、HuggingFace、Zalando、AWS、微软、Cloudflare、谷歌 等将参 加AI 推理 相关会 议。生成式AI 在 影视 上的应 用将被 重点展 示。中 国游戏 厂商腾 讯、网 易,以 及传媒 巨头奈 飞、皮 克斯、迪士尼 动画工 作室等 均将参 与游戏/传 媒 娱乐 讨 论,可 能探 讨 如何 利 用生 成 式AI 和路 径追 踪 技术 创 造更 加 逼真 的 虚拟 人 物和 世 界,辅 助游 戏 开发 和 影视 制 作;Runway、腾讯及Digitrax 等有 望介绍 其文生 图、文 生视频 模型及 其他AI 应用。其他可 能被讨 论的应 用包括3D 内容生 成、云 端创作 游戏等。2 万 亿美元可寻 址市场(TAM):英 伟达预 计随着 通用AI 技术发展,目前1 万亿美元 数据中 心基础 设施安 装量(可寻址 市场,TAM)将在 未 来五年 翻一番。AI 设备 有望 替 换掉 所 有的 传 统计 算。图 表:英伟 达在GTC2023 上推 出4 款AI 推 理平 台图表:ASIC 芯片在边缘AI 应用占比 提升图 表:英伟 达1 万亿美 元TAM结构BlackWell架构演进7来源:英伟达官网,51CTO,中泰证券研究所 英 伟 达每隔1-2 年提出新 的芯片 架构以 适应计 算需求 升级。2017 年提出V olta 架构,专注 深度学 习和AI 应用,并引入Tensor Core,2020 年Ampere 架 构 在 计算 能力、能效和 深度学 习性能 方面大 幅提升,采用 多个SM 和更大 的总线 宽度,提供更 多CUDA Core 及 更高频率,引入第三代Tensor Core,具有更高 的内存 容量和 带宽,适用于 大规模 数据处 理和机 器学习 任务。2022 年发布Hopper 架构,支 持第四 代TensorCore,采 用新 型 流式 处 理器,每个SM 能力 更 强。Blackwell:或为 英伟达 首次采 用多chiplet 设计的架 构,一 方面可 能简化 基于Blackwell 架构的GPU 硅片 层面 生产,最大 限 度提 高 小型 芯片 产 量,另 一方面,多芯 片封装 将更加 复杂。预计SM 和CUDA 将 采用 新结构,光线 追踪性 能等将 进一步 优化和 加强,RT 单元有 可能被PT 单 元所取代,以实现 对Ada Lovelace 架 构的 性能 翻 倍。Blackwell 架构GPU 很可 能会支 持GDDR7 内存,相 比GDDR6X 效率更高,鉴于第一代 GDDR7 SGRAM IC 将 具有32GT/s 的传输数 据速率,采用 这些芯 片的384位内存子 系统将 提供约1536 GB/s 的 带 宽。与Hopper/Ada 架构 不同,Blackwell 或将扩 展到数 据中心 和消费 级GPU,但 消 费级 场 景或 将 延续 单 芯片 设 计,以 实现 时 间可 控 及低 风 险。图表:英 伟达芯 片 架构演进 Volta Turing Ampere Hopper 2017 2018 2020 202280 SM SM 32 FP64+64 Int32+64 FP32+8 TensorCore102 92 SM SM SM 64 Int32+64 FP32+8 TensorCore108 SM SM 64 FP32+64 INT32+32 FP64+4 TensorCore132 SM SM 128 FP32+64 INT32+64 FP64+4 TensorCoreNVLink2.0 TensorCore AI TensorCore2.0 RTCore TensorCore3.0 RTCore2.0 NVLink3.0 MIG1.0TensorCore4.0 NVLink4.0 MIG2.0 12nm 211 12nm 186 7nm 283 4nm 800 V100/TiTan V T4/2080Ti/RTX5000 A100/A800/A30 H100/H800B100:性能翻倍,带宽、显存等大幅提升8来源:51CTO,半导体行业观察,中泰证券研究所 B100:预 计为MCM 多芯片 封装,台积电N3 或N4P 制程 工艺,可能使 用CoWoS-L,性能预 计至少 为H200 的2 倍,相 当于H100 的4 倍;首发 内 存或为200G HBM3e,约为H200 的140%;参 考历代NVLink 迭代,预 计双向 带宽有 望较H100 接近 翻倍,或采 用224Serdes。为 了 更快推 向市场,B100 前期 版本或 使用PCIe5.0 和C2C 式 链接,功耗700W,方便 直接沿 用H100 的现有HGX 服务器,以 大幅提 高供应链 更 早提高 产量和 出货量 的能力。后续 将推出1000W 版本,转向液 冷,并 将通过ConnectX8 实现每GPU 网 络的 完整800G。这些 SerDes 对 于 以太网/InfiniBand 仍 然是 8x100G。虽然每个 GPU 的 网 络速 度翻倍,但基 数减半,因为 它们仍 然必须 经过相 同的 51.2T 交 换 机。B100 预计2024H2 规模出货。MorganStanley 预计2024 年英伟 达CoWoS 需求量15万片,对应AI GPU 出货量400 万张,其中H100/B100 分别为377 万张/28 万张。图表:英 伟达芯 片 性能参数 V100 PCIe A100 80GB PCIe A800 80GB PCIe H100 80GB PCIe Volta Ampere HopperFP64 7TFLOPS 9.7TFLOPS 26TFLOPSFP32 14TFLOPS 19.5TFLOPS 51TFLOPSFP16 TensorCore 312TFLOPS 756.5TFLOPSINT8 TensorCore 62TOPS 624TOPS 1513TOPSGPU 32/16GB HBM2 80GB HBM2e 80GB HBM3GPU 900GB/s 1935GB/s 2TB/sTDP 250W 300W 300-350W GPU 7 MIG 10GB PCIe PCIe NVLink 300GB/sPCIe 32GB/sNVLink 600GB/sPCIe4.0 64GB/sNVLink 400GB/sPCIe4.0 64GB/sNVLink 600GB/sPCIe5.0 128GB/s 18 GPU NVIDIA 英伟达采用CoWoS-L,驱动先进封装升级9来源:Bloomberg,中泰证券研究所 CoWoS 封装 成为 英 伟达GPU 供 应产 能瓶颈 之一。CoWoS(Chip On Wafer On Substrate)是台 积电开 发的一 种2.5D 先进 封装技 术,由CoW 和oS 组 合,先将芯 片通过Chip on Wafer(CoW)的 封装制程 连接至 硅晶圆,再把CoW 芯 片与 基板(Substrate)连接,整合成CoWoS。根据不同中 介层(interposer),CoWoS 封装 又分为CoWoS-S/R/L 三种类 型。CoWoS-S:应用 最 为广 泛,采 用 硅作 为 中介 层;CoWoS-R:基于InFO 技术,利用RDL 中介 层互 连各chiplets;CoWoS-L:使用小 芯片(chiplet)和RDL 作为 中介层(硅桥),结 合了CoWoS-S 和InFO 技术的优 点,使 用内插 器与LSI(本地硅 互连)芯 片 进行芯 片间互 连,同 时用于 电源和 信号传 输的RDL 层提 供灵活 集成。MorganStanley 预计2024 年全球CoWoS 产能翻 倍扩张 至32kwpm(千片/月),台积 电 产能 将 达到27kwpm,英 伟达 仍 为需 求 主力。图表:CoWoS-L 图表:CoWoS-S英伟达加快液冷方案布局10来源:大模型之家,中加创新中心,中泰证券研究所 英 伟 达积极 与行业 伙伴合 作创新 液冷方 案。2022 年推 出基 于 直接 芯 片冷 却 技术(Direct-to-chip)的A100 800G PCIe液冷GPU,较风 冷版本 性 能相当,电力 节省约30%,单 插槽设 计节省 最多66%的机 架空间。2023 年,与Vertiv、BOYD、Durbin、霍 尼韦尔 等6 家行业 伙伴合 作打造 混合液 冷创新 方案,将芯片 直接冷 却、泵 送两相(P2P)和单相浸 没 式冷 却 集成 在 带有 内 置泵 和 液体-蒸汽 分 离器 的 机架 歧 管中,使用 两 相冷 板 冷却 芯 片,其 余具 有 较低 功 率密 度 的服 务 器组 件 将浸 没在 密 封的浸 没式箱 体内,服务器 使用绿 色制冷 剂分别 进行两 相冷却 和浸没 冷却。相较当 前无法 处理高 于400W/cm 功 率 密度的 液冷,混合 冷 却支持 服务器 机架功 率高达200kW,是目前的25 倍,与风冷 相比成 本至少 降低5%,冷 却效率 提高20%。同 时 与台积 电、高 力等合 作开发AI GPU 浸 没 式液冷系统。2024 年3 月,Vertiv 与英 伟达 专家 团 队共 同 针对GPU 型高 密数据 中心制 冷方案 进行研 发测试 并发布 实测数 据,结 果显示 冷板液 冷和风 冷的 创 新风 液 混合 制 冷方 案 中大 约75%的IT 负载 可通 过 冷板 液 冷技 术 实现 有 效冷 却,IT 负 载从100%风冷 转 型为75%液冷 的 方案 时,服 务器 风 扇用电 量降低 最多达 到80%,使总体 使用效 率(TUE)提高15%以上。图 表:英伟 达A100&H100 液冷 方案图表:英 伟达混 合 液冷方案AI算力芯片功耗提升,催化液冷需求11来源:通信世界,英维克,中泰证券研究所 冷板 式液 冷或 率 先 放量,浸 没式 液 冷 技术 不断 优化。液 冷技 术目 前主 要 包 括冷 板式 液冷、浸 没式 液冷 和喷 淋 式 液冷 三种,其 中 冷 板式液 冷 将服务 器芯片 等高发 热元件 的热量 通过冷 板间接 传递给 液体进 行散热,低发热元 件仍通 过风冷 散热,兼具性 能与价 格优势,技术 相对成熟;浸没式 液 冷将服务 器完全 浸 入冷却液 中,全 部 发热元件 热量直 接 传递给冷 却液,通过 冷却液循 环流动 或 蒸发冷凝 相变进 行 散热,散热效率 更高,数 据中心基 础设施 中 应用比例 有望逐 步 提升,但 对冷却 液 要求严格,在建 设 改造以及 后续管 理 维护方面 成本更 高。温控、IDC、服务 器、运 营 商等 多 方积 极 部署 液 冷路 线。随着AI 发展,液冷产 业链参 与者不 断增加,上下 游协同 增强。英维克、申菱环 境 等领先 温控厂 商普遍 推出数 据中心 液冷解 决方案,润泽 科技、科华数 据等IDC 厂商积极 改造或 新建液 冷智算 中心,新华三、中兴通讯等ICT 设备厂 商均推出 液冷服 务器,以提升 自身竞 争力,满足客 户需求。图表:液 冷技术 方 案对比 图 表:英维 克Coolinside 全链条液冷 解决方 案 GB200 有望超预期12来源:英伟达官网,信息平权,中泰证券研究所 GB200是将CPU 和GPU 组 合的 超级芯 片,GB200NVL 是超级计算 使用的 互连平 台。根 据产业 链信息,预计 芯片包 括1 个Grace CPU 和2个B100 GPU,内 存为192GB HBM3e,CPU 和GPU 之间使 用NVLink C2C 连 接,采用NVLink5.0,NVSwitch 或将突破 寻址限 制,支 持NVLink 连接2500 张GPU 集群。芯片功 耗或达1200w,采 用混合 冷却,预计其 中GPU/CPU/网卡/NVLink Switch ASICs 使 用液冷,其 他组件使用风 冷。预计2024-2025 年之间发 布,JPMorgan 预期2025 年出货 量50万张。GH200:上一 代超级 芯片,2023 年5 月发布,包含1 个Grace CPU 和1 个Hopper GPU,之 间通过900GB/s 的NVLink-C2C 芯片互 连,从 而使GPU 可 以 共享CPU 内存,不再 需要传 统的CPU 至GPU PCIe 连 接。与最新 的PCIe Gen5 技 术相比,GPU 和CPU 之间 带宽提 高7 倍,互 连功耗减少5 倍以上。基于GH200 芯片 的DGX GH200 集 群,所有256 个GPUs 连接 可 以访 问 到累 计144TB 内存,较DGX H100 的640GB 提升约230 倍。GH200 对 推荐 系统提 升效果 尤其明 显。GH200 在LLM 65B 上 的推理 速度较H100 提升2 倍多,在VectorDB 和DLRM 上较H100 提升5-6 倍。谷 歌 云、Meta 和微软 预计成 为首批DGX GH200 用 户。图 表:英 伟 达Grace Hopper 超 级芯 片 架构 图 表:大 内 存 AI 工 作 负载的 性能比 较英伟达下一代GPU 展望13来源:Wccftech,世界先进制造技术论坛,TSMC,中泰证券研究所 产 品 性能进 一步加 快提升。根据Bloomberg,英伟 达可能 在2026 年推出 下一代 数据中 心GPU N100,N100 的GPU 芯片数量 可能由B100 的2 个 增加到4 个,每 个芯片 的尺寸 相似,尽管GPU 芯片 总面积 可能翻 倍,性 能跃进 将更加 显著。N100 预计采用 台积电N3E 工艺,晶体 管密 度 或增加50%,芯 片内存 可能升 级到全 新一代HBM4。封装 设计将 同步升 级以扩 大芯片 尺寸,可能加 速热压 缩键合(TCB)和 混合键合技术应 用。芯 片 算力、工艺及 互连等 组网方 案升级 将持续 带动交 换机、光模块 等相关 硬件创 新迭代,LPO、硅光、CPO 等新技术有 望加快 推进。图 表:英 伟 达数 据 中心/AI GPU 基 础信 息 图表:台 积电 工 艺 制程 路线 图AI 服务器对光模块弹性测算14来源:A Scalable,Commodity Data Center Network Architecture,英伟达官网,中泰证券研究所测算 BOM 测 算:以500 台DGX H800 主 机测算,每台 搭载8 张GPU&400G IB,“铜线+光模块“方案 下,铜 线=GPU/2=2000,光模 块 数量按400G 计算为4000*4=16000 个,考虑800G 二合 一,即 为8000个,交 换机 数 量=GPU*5/端口 数=320 台;全 光 模块方 案,类 似上一 代计算,2000*800G+4000*400G 光模块替 换 铜线,总光模 块数包 括1 万个800G(2.5 倍GPU)和4000 个400G(GPU1:1 对应)BOM(500 DGX H800,8 GPU&IB/SERVER)+GPU H800 4000 GPU H800 4000IB 400G NDR IB 4000 IB 400G NDR IB 4000 400G Server-to-ToR 2000 400G Server 4000 800G Spine/Core switch 8000 800G ToR 2000IB 400G 64port 320 800G Spine/Core switch 8000IB 400G 64port 320图表:Fat-Tree 网 络架构BOM(250 DGX A800,8 GPU&IB/SERVER)+GPU A800 2000 GPU A800 2000IB 200G NDR IB 2000 IB 200G NDR IB 2000 200G Server-to-ToR 2000 200G Server-to-ToR 4000 200G Spine/Core switch 8000 200G Spine/Core switch 8000IB 200G 40port 250 IB 200G 40port 250GPU迭代加速1.6T光模块升级15来源:ITPUB,光通信女人,中泰证券研究所 光 模 块趋势 向高速 率发展。AIGC 等技术 的快速 发展带 来数据 量呈指 数级增 长,设 备与设 备之间 的亦需 要更大 带宽连 接,因 此光模 块需要 向更高 带 宽发展。现有 光模块 带宽主 要以100G/200G/400G,目前 正朝着800G、1.6T 甚至 更高的 带宽发 展。交换机芯片密度的 提升有望带来1.6T 加速放量。数 据 中心 交 换 芯 片 的 演 变趋 势 基 本 上 处 于 每两 年 翻 一 番 的 快 速增 长,25.6T 交 换 芯片 用7nm 工艺,51.2T 则 需 要 选择5nm 工艺节点,预计2025 年3nm 工艺节点可实现,并支 持 交 换 芯 片 能 实现102.4T 的容量。对于102.T 的 交 换 容量,则需要1.6T 光 模块,光口 每 波长 速 率需 要 达到200G。我 们预计2024 年1.6T 有望 小批量 出货,2025 年1.6T 即可 进入产 业化节 点。图表:光 模块向 高 速率发展 趋势 图表:交 换机密 度 提升带动 光模块 速 率提升光通信:硅光/LPO/CPO 前沿技术方向16来源:光电汇OESHOW,MACOM,鲜枣课堂,光学小豆芽,中泰证券研究所 硅光:技 术集成 化 更具优势。硅光 方 案可继承CMOS 工 艺,芯片层 面最大 程度实 现混合 集成,在短距、场 景、相 干 光场景应 用有望 成 为主流。硅光方案可大 幅节约 器 件、组装 成本,控 制占地空 间,实现 低成 本、大 规 模的 光连 接,从 根 本上 改变 光器件 和 模块行 业。1.6T 时代,多模VCSEL200G 芯片或面临瓶颈,硅光 有 望替代成 为主流 方 案。LPO:线 性驱 动可插 拨光模 块。通过LPO 技术把DSP 替 换,使 用高线 性度、具备EQ 功能的TIA 和DRIVER 芯 片(成本上 升少许,比传统DSP 解决 方案 降 低功 耗、延 迟 和成 本,满 足AI 计算 短 距离、大宽 带、低延 时要求。400G 光模块 中使用7nm DSP,功 耗 约为4W 占 整个 模块功 耗的50%,DSP 的BOM成 本 约占20-40%。高线 性度的TIA、Driver 芯片 作为LPO 技 术的 核心零 部件,目前有Macom、Semtech、美信(已 被ADI 收购)等主要 供应商,博通 也 在推 进 相关 产 品研 发。微 软、Meta、AWS都有可 能 逐步接 受LPO 方案。CPO:光 电共 封装。交换ASIC 芯片 和 硅光 引 擎(光学器 件)在 同 一高速主 板上协 同 封装,集 中解决 散 热问题,同时 也可以 省去很 多SerDes 功能,节省功 耗,是有 望 最 有潜 力实 现高 集 成 度、低功 耗和低成本的 封装方 案。但是由 于目前 的 技术与产 业链尚不成熟 等原因,短期内难 以大规 模 应用。预 计从1.6T 开 始,传 统可插 拔速率 升级或 达到极 限,后 续光 互 联升级 可能转 向CPO 和相 干方案。图表:硅 光模块 结 构图表:CPO 结构图示图表:LPO 结构图示算力网络图谱:GTC聚焦光通信与液冷产业链17来源:各公司官网,中泰证券研究所整理/IDC T/R&Cisco HPE Juniper Arista NVIDIA BroadCom Cisco Intel Marvell Finisar Lumentum MOLEX Intel Finisar Oclaro Broadcom Finisar Lumetum BroadCom AIOT重点关注标的18来源:Wind,中泰证券 研究所 GTC 大 会 召开 在 即,预 计将 在 本次 大 会上 推 出Blackwell 架构的B100 GPU,与H200 系列相比 性能有 望翻倍 提升,后续版 本功率 或达1000W,采 用 液冷散 热。随 着B100 等芯 片算力 持续提 升,光 通信产 品有望 朝高速 率进一 步演进,成本 与功耗 瓶颈有 望加速 硅光/LPO/CPO 等新技术 方案落地。建议关 注 光通信与 液冷产 业 链。同 时,本次GTC 大 会将 围绕机 器人、数据中 心云计 算等多 领域开 展主题 演讲、讨论交 流等活 动,现 场将展 出25 款机器人,有望 发布具 身智能相 关 进展。大模型 向多模 态演进,加速AI 应 用落地,数据 中心、CDN 等 或将 受益推 理场景 拓宽带 来的新 一轮流 量增长。图表:重 点标的 估 值 PE2023E 2024E 2023E 2024E 300308.SZ 中际旭创 177.36 1423.89 21.81 78.19%40.26 84.60%65.29 35.37 300394.SZ 天孚通信 156.01 616.06 7.30 81.14%12.11 65.91%84.40 50.87 688498.SH 源杰科技 162.00 138.45 0.19-80.58%1.06 442.61%710.73 130.98 300502.SZ 新易盛 76.98 546.50 6.91-23.57%12.58 82.14%79.13 43.45 688313.SH 仕佳光子 11.65 53.45-0.48-174.21%0.81 269.76%-112.03 65.99 688195.SH 腾景科技 27.08 35.03 0.42-28.34%0.75 80.21%83.72 46.46 300620.SZ 光库科技 51.03 125.18 0.73-37.92%1.56 113.75%171.18 80.09 002281.SZ 光迅科技 39.91 316.97 5.82-4.41%7.37 26.75%54.50 43.00 301205.SZ 联特科技 109.22 141.71 0.62-45.26%1.82 193.55%228.56 77.86 300570.SZ 太辰光 42.19 97.04 1.68-6.80%2.60 55.13%57.83 37.28 002837.SZ 英维克 33.85 192.43 3.89 38.78%5.23 34.55%49.47 36.77 872808.BJ 曙光数创 53.37 106.74 1.05-10.61%1.84 76.16%102.14 57.98 301018.SZ 申菱环境 27.82 74.02 2.27 36.51%3.04 34.00%32.61 24.34 300499.SZ 高澜股份 13.82 42.19 0.38-86.93%1.76 369.33%112.49 23.97 603912.SH 佳力图 8.16 44.21-300249.SZ 依米康 7.92 34.89-300017.SZ 网宿科技 10.10 246.16 5.13 169.00%5.61 9.33%48.01 43.92 ICT 301191.SZ 菲菱科思 95.62 66.30 1.72-11.79%3.21 86.63%38.55 20.66 688702.SH 盛科通信-U 42.34 173.59-0.20 0.0000 0.13 161.67%-854.31 1385.30 301165.SZ 锐捷网络 39.95 226.99 5.12-6.92%7.34 43.47%44.34 30.91 000938.SZ 紫光股份 23.17 662.68 22.64 4.90%28.08 24.05%29.28 23.60 000063.SZ 中兴通讯 29.00 1285.41 93.26 15.41%106.45 14.15%13.78 12.08 300442.SZ 润泽科技 25.10 431.86 17.93 49.67%23.25 29.67%24.09 18.57 600845.SH 宝信软件 42.86 869.59 26.36 20.59%33.04 25.34%32.99 26.32 300383.SZ 光环新网 9.87 177.42 7.16 181.36%9.24 29.05%24.78 19.20 300738.SZ 奥飞数据 9.88 94.21 1.78 7.74%2.56 43.67%52.78 36.74*注:以2024 年3 月15 日收盘价计算,橙底加粗标的为已覆盖公司,盈利预测来自中泰预测,中际旭创/天孚通信/源杰科技/中兴通讯2023 年归母净利润来自业绩快报及年报,其余标的盈利预测及估值均取自Wind 一致预期风险提示19 AI 发 展不 及预 期 风险。AI 是底 层算 力 增长 核 心驱 动 力之 一,若AI 技术 及应 用发 展 不及 预 期,算 力规 模 增速 可 能放 缓,进 而 影响 产 业链扩张 升级;技术 迭代 不及 预 期 风险。技 术升级 带 动硬件价 值量提 升,打开增 量市场,若行业技 术迭代 速 度不及预 期,可 能 导致新品 导入量 产 放缓,公司 若不 能及 时 根 据市 场需 求变 化 进 行技 术、产品 及 业 务创 新,市场 竞 争 力将 可能 被削 弱,影响 经济 效益;市场 竞争 加剧 风 险。竞争从 业务布 局、核心技 术、人 才、资金和 政策等 方 面展开,存在新 的 进入者导 致市场 竞 争加剧的 风险;海外 贸易 争端 风 险。中美之 间经贸 磋 商不断反 复,需 要 保持高度 关注;市场系统 性风险。全球 和国 内宏 观 层 面相 关因 素仍 可 能 对市 场产 生系 统 性 影响;研究 报告 使用