欢迎来到报告吧! | 帮助中心 分享价值,成长自我!

报告吧

换一换
首页 报告吧 > 资源分类 > PDF文档下载
 

20230917_华金证券_2023年通信行业研究报告算力底座算力承载与网络中枢_90页.pdf

  • 资源ID:193489       资源大小:6.51MB        全文页数:90页
  • 资源格式: PDF        下载积分:9.9金币 【人民币9.9元】
快捷下载 游客一键下载
会员登录下载
三方登录下载: 微信开放平台登录 QQ登录  
下载资源需要9.9金币 【人民币9.9元】
邮箱/手机:
温馨提示:
用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
支付说明:
本站最低充值10金币,下载本资源后余额将会存入您的账户,您可在我的个人中心查看。
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,下载共享资源
 
友情提示
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,既可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

20230917_华金证券_2023年通信行业研究报告算力底座算力承载与网络中枢_90页.pdf

证券研究报告本报告仅供华金证券客户中的专业投资者参考请仔细阅读在本报告尾部的重要法律声明算力底座:算力承载与网络中枢分析师:李宏涛 S0910523030003通信行业/行业专题报告评级:领先大市(维持)2023年9月17日通信行业专题报告 2请仔细阅读在本报告尾部的重要法律声明核心观点u 算力进展:大模型:算力驱动迭代,应用在向通用型场景和垂直行业型场景落地;服务器:作为算力的承载,随着大模型不断涌现,训练需求爆发,AI服务器的价值凸显;交换机:算力网络中枢,在智算组网下对高速率交换机升级迫切,400G交换机将拉动整体市场增长,具备翻倍增长空间。u 算力测算与算力租赁:据测算,2022年训练用算力为95Eflops,至2025年训练用算力749E,复合增长43%;在算力总需求高增长背景下,智算租赁景气度提升,目前该市场百花齐放,将成为公司第二增长曲线。u 算力商业机会演进的路线选择:我们认为,算力方向将演变为以国内驱动为主,国内驱动与海外驱动并行态势;国内驱动逻辑:1、基础设施:大模型出现带动AI服务器需求,数据中心不断扩容升级;2、内延:短距离传输、高速背板连接需求大涨;3、算力资源:全国智算中心建设加速,得卡者得生产力;u 建议关注标的:紫光股份、菲菱科思、浪潮信息、共进股份、中贝通信、润泽科技等。u 风险提示:模型算法及应用市场拓展不及预期;芯片成本过高、订单周期过长影响落地进度;智算中心建设进度不及预期。目录010203算力进展大模型:算力驱动迭代,应用落地加速服务器:算力承载,AI服务器价值凸显算力商业机会演进的路线选择投资建议与风险提示04交换机:交互连接,算力网络中枢算力测算 4请仔细阅读在本报告尾部的重要法律声明趋势一:大模型发布持续超预期发展u ChatGPT模型的推出持续超预期发展。1)ChatGPT注册用户激增,5天突破百万;2)GPT模型不断迭代:GPT3于20年6月推出,在2022年11月推出的GPT3.5基础上再次更新,23年6月推出GPT 3.5 turbo 16K。3)AI渗透千行百业:基于大模型的多场景应用也不断拓展。拉动智能算力规模高速增长。根据OpenAI的研究,AI训练所需算力指数增长,且增长速度超越硬件的摩尔定律。资料来源:媒体资源网、科创板日报、澎湃网、新浪科技看点、腾讯技术工程、华金证券研究所图表1 ChatGPT用户比较图 图表2 中国移动交换机招标情况对比 5请仔细阅读在本报告尾部的重要法律声明趋势二:数字基础设施建设加速,景气度提升u 1、我国数据中心总体建设进度加速。据数字中国发展报告,我国数据中心机架总规模2022年达到650万机架,比去年增长130万架,近5年年均增速超过30%。u 2、算力基础设施采购量明显提升。以移动为代表的公司,采购交换机数量加大,移动公司2023-2024年采购交换机30660台,其中特定场景交换机需求放量增长,采购15330台。图表3 2017年2022年我国在用数据中心机架规模(单位:万架)1642013778164230660143301533005000100001500020000250003000035000采购总规模 通用场景采购规模 特定场景采购规模2022-2023年 2023-2024年图表4 中国移动交换机招标情况对比(单位:台)资料来源:国家互联网信息办公室、工业和信息化部、维科网、华金证券研究所 6请仔细阅读在本报告尾部的重要法律声明趋势三:模型百花齐放,推动AI在各领域广泛应用u 1、国内模型百花齐放:众多公司推出大模型,比如阿里推出通义千问、腾讯推出混元,百度的文心一言大模型,科大讯飞的星火大模型u 2、面向垂直行业的大模型应用效果显著:紫天科技旗下河马游戏推出大侦探智斗小AI,下载量进入榜单TOP10;医联所推出的MedGPT具备全流程智能化诊疗能力,与三甲专家诊断一致性超96%。“天擎”美亚公共安全大模型,具备警务意图识别、警务情报分析、案情推理等推理能力,可实现全流程闭环进化。将重构两大应用场景:电子数据取证和智慧警务系统。图表5 科大讯飞星火认知大模型 图表6 医联MedGPT资料来源:第一财经、网易严选、证券日报、上游新闻、大众网、华金证券研究所目录010203算力进展大模型:算力驱动迭代,应用落地加速服务器:算力承载,AI服务器价值凸显算力商业机会演进的路线选择投资建议与风险提示04交换机:交互连接,算力网络中枢算力测算及算力租赁 8请仔细阅读在本报告尾部的重要法律声明AI芯片是大模型迭代的基础u 英伟达为代表的芯片厂商性能持续进步。英伟达2017年上市V100芯片,2020年上市A100芯片,2022年上市H100芯片,H100较V100计算性能提升3倍以上。并且为了迎合AI大模型的潮流,H100配有Transformer引擎,可更好的支撑大模型的架构。u AI芯片成为大模型不断更新的算力基础。以GPT-3为例,模型包含1750亿参数,训练成本达1200万美元。而谷歌发布的PaLM-E包含5620亿参数,GPT-4包含数万亿级别参数。所以大模型的更新迭代必须以先进的AI芯片作为算力基础。图表7 英伟达发展大事记图表8 英伟达主流芯片比较资料来源:英伟达官网、新浪VR、澎湃新闻、搜狐、知乎、华金证券研究所 9请仔细阅读在本报告尾部的重要法律声明Transformer架构是AI大模型与传统模型不同的核心u Transformer模型是AIGC大模型与传统模型不同的核心。AIGC大模型起源于NLP,并基于Attention机制构建Transformer模型。传统模型多基于CNN 和 RNN 结构。u Transformer模型架构是现代大语言模型所采用的基础架构。Transformer模型是一种非串行的神经网络架构,最初被用于执行基于上下文的机器翻译任务。Transformer模型以Encoder-Decoder架构为基础,引入“注意机制”(Attention),具有能够并行运算、关注上下文信息、表达能力强等优势。图表9 Transformer模型架构图 图表10 Transformer、CNN与RNN优缺点对比资料来源:知乎、CSDN、华金证券研究所 10请仔细阅读在本报告尾部的重要法律声明底层架构各异导致训练参数不同u 底层架构的不同导致训练参数的要求不同。以Transformer为架构的大模型一般可达百亿、千亿、万亿级别,而以CNN或RNN为底层架构的传统模型则是亿级别及更少级别。u AI大模型参数级别庞大,需要强大的算力和硬件支撑。以ChatGPT3.0为例进行拆解,训练一次的成本约为140万美元。对于一些规模更大的模型来说,训练成本介于200万美元-1200万美元之间。图表11 不同架构模型的参数差别 图表12 ChatGPT3.0拆解资料来源:知乎、CSDN、电子发烧友、数据猿、佐思汽车研究、华金证券研究所 11请仔细阅读在本报告尾部的重要法律声明AI大模型带动并行计算,训练消耗更多算力u 训练和推理是大模型运行的重要环节。训练环节是大模型的学习过程,可提高模型在各种任务上的性能。推理环节是大模型的判断过程,利用已有训练效果对新的输入进行预测和决策。u 训练和推理需要大量算力支撑,其中训练消耗更多。援引Open AI测算,自2012年起,全球头部AI模型训练算力需求每3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。而推理阶段则根据模型上线后的搜索量来计算,新输入数据的量级相较于训练环节的大规模数据量级较低。图表13 推理和训练阶段所用服务器图表14 英伟达服务器提供算力与内存资料来源:英伟达官网、广州日报、华金证券研究所 12请仔细阅读在本报告尾部的重要法律声明u 国外大模型主要以美国高科技公司为主。Google、Meta、微软等美国公司处于了世界大模型发展的领先地位,现在几乎所有AI大模型训练时采用的Transformer网络结构,Transformer的提出让大模型训练成为可能。u 微软产品Copilot实现商业化落地。Copilot产品基于GPT-4,将生成式AI能力全面应用于各大办公套件,可作为办公场景下智能写手。7月18日,Copilot提供订阅收费服务,每名用户每月的价格从12.5美元到57美元不等。产品的商业化落地体现出企业对人工智能的未来前景持续看好。图表15 谷歌医疗模型效果比较图表16 Copilot产品进展:国外大模型通用模型领先,商业化首落地资料来源:知乎、搜狐、每日经济新闻、华金证券研究所 13请仔细阅读在本报告尾部的重要法律声明进展:国内大模型通用和垂直两条路演绎u 国内AI大模型数量呈现爆发式增长。国内公开发布的大模型已达80多个。研究大模型的公司有百度、商汤、科大讯飞、华为、阿里、京东、第四范式等公司。同时科研机构也在积极入局,有清华大学、复旦大学、中科院等高校。u 国内大模型分为通用和垂直应用。文心一言、通义千问等打造跨行业通用化人工智能能力平台,其应用正从办公、生活、娱乐向医疗、工业、教育等加速渗透。与此同时,一批针对生物制药、遥感、气象等垂直领域的专业类大模型,提供针对特定业务场景的专业化解决方案。图表17 国内通用领域大模型进展图表18 国内垂直领域大模型进展资料来源:车百智库、搜狐、每日经济新闻、懂财帝、新浪财经、阿里云、华金证券研究所 14请仔细阅读在本报告尾部的重要法律声明资本支出:支出加速,运营商有望成为国内主力军u 全球云服务CAPEX持续增长。受益于大模型的持续发展,2023Q1全球云基础设施服务支出增长19%,前三大云厂商AWS、Azure和谷歌云共同增长22%。云服务成为IT市场中增长最快的部分之一。u 三大运营商成为国内网络建设主力军。三大运营商中国移动、中国电信、中国联通不断 加大算力投入,优化算力网络布局。根据三大运营商数据,预计2023年算力投入分别为 452/195/149 亿元,分别同比+35%/+40%/+20%。图表19 2018-2023Q1全球云服务支出规模(亿美元)图表20 三大运营商2022年CAPEX表现及未来计划资料来源:东方财富网、中商情报网、巴中在线、华金证券研究所 15请仔细阅读在本报告尾部的重要法律声明建设计划:政策管理办法落地,监管走上正轨u 国家网信办等七部门联合公布生成式人工智能服务管理暂行办法。上述办法自2023年8月15日起施行,国家网信办有关负责人表示,出台办法,旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。同时办法也指出,应该促进算力资源协同共享,提升算力资源利用效能。图表21 生成式人工智能服务管理暂行办法内容图表22 AIGC内容合规建设体系资料来源:中国网信网、新浪、华金证券研究所 16请仔细阅读在本报告尾部的重要法律声明u 国内智算中心建设明确,后续需求有望逐步释放。多地政府出台算力规划、三大运营商加速筹备智算中心建设以及互联网厂商多地智算中心建设规划。智能计算中心的建设,整合数据资源结构的同时,也带来更为完善且健全的算力、算法基础设施,为人工智能技术的创新及应用提供强有力的支撑。图表23 国内智算中心建设情况图表24 中国银行总行金融科技中心合肥园区项目建设计划:政府智算中心建设开启,国内需求逐步释放资料来源:雪球、IDC圈、移动支付网、华金证券研究所 17请仔细阅读在本报告尾部的重要法律声明u 科大讯飞提出大模型的建设进度计划。针对大模型普遍存在的问题,科大讯飞明确规划了一系列的迭代里程碑。计划在不同时间节点进行不同方面的升级,力争超越ChatGPT。目前国内大模型厂商中,科大讯飞制定了明确的追赶GPT-3.5的时间表,表明了他们在技术研发上的整体规划。u 科大讯飞星火大模型落地多应用场景实现闭环,赋能开放平台共建生态。公司发布教育、消费者、医疗、政法等多种应用场景的实现,配合公司相关产品使用,进一步提高公司市场渗透率。图表25 科大讯飞大模型关键时间节点 图表26 科大讯飞星火代码大模型能力建设计划:企业模型推进计划明确,垂直行业延伸资料来源:未来科技力、科大讯飞开放平台、华金证券研究所目录010203算力进展大模型:价值量、网络架构整体跃升服务器:算力承载,AI服务器价值凸显算力商业机会演进的路线选择投资建议与风险提示04交换机:交互连接,算力网络中枢算力测算 19请仔细阅读在本报告尾部的重要法律声明规模:算力增长助力AI服务器规模化布局u 算力持续增长,AI服务器应用场景更加广泛。Trendforce预估,预估2022年全球搭载GPGPU的AI服务器年出货量占整体服务器比重近1%,即约14万台。预计2023年其出货量年成长可达8%,到2026年预计全球搭载GPGPU的AI服务器出货量将达到22.5万台左右,20222026年CAGR将达10.8%。u 中国AI算力市场高速发展,将成为第二增长极。根据IDC预测,到2027年中国加速服务器市场规模将达到164亿美元。其中非GPU服务器市场规模将超过13%。智慧城市、智能机器人、智能家居、工业领域将成为主要应用领域。图表27 全球AI服务器出货量预测(千台)1451501651952250501001502002502022年 2023年E 2024E 2025E 2026E图表28 中国加速服务器市场预测资料来源:观研报告网、IDC中国、华金证券研究所 20请仔细阅读在本报告尾部的重要法律声明机架服务器:传统数据中心标配,大型机架渐成主流u 我国服务器机架数量快速增长,大型机架逐渐成为主流。2021年我国服务器机架总数达429万架,大型规模以上机架361万架,占比达84.1%。u 企业规模不同,配置的服务器不同。服务器按照可支持的CPU数量可分为单路、双路、四路及多路服务器,单路即为1个CPU。大中小型企业通常配置4-8路、2-4路、1-2路服务器。u 机架式服务器的通常功耗不超过30W。图表29 浪潮信息机架服务器 NF5280G7 图表30 NF5280G7服务器性能 内存32:最多支持32条DDR5 4800MT/s内存GPU4:四条UPI互连链路,单条链路最高速率16GT/sCPU2:支持32条DIMM处理器2:最多支持60核;最高睿频4.2GHz;四条UPI互连链路,单条链路最高速率16GT/s;最大热设计功率350W资料来源:知乎、浪潮信息官网、迪索共研咨询、华金证券研究所 21请仔细阅读在本报告尾部的重要法律声明u 刀片式服务器是指在标准高度的机架式机箱内可插装多个卡式的服务器单元,实现高可用和高密度。每一块刀片实际上就是一块系统主板,每块刀片都是热插拔。u 比较:1)刀片式服务器更省空间,6机架42个1U的服务器和1机架的刀片服务器性能相当;2)刀片式服务器布线更简单、更省电;3)机架式比刀片式服务器更加灵活、维护更简单、维护成本更低;4)刀片式服务器对制冷的要求更高;5)刀片式服务器对调度系统的要求更多刀片服务器:为云而生,高可用、高密度是优势图表31 刀片服务器 图表32 机柜中的刀片服务器资料来源:jointforce官网、强川科技、华金证券研究所 22请仔细阅读在本报告尾部的重要法律声明AI服务器:为计算而生,性能全方面升级u 按照GPU数量分类:Al服务器主要采用加速卡为主导的异构形式,更擅长并行计算。与通用服务器按照CPU数量分类不同,Al服务器一般仅搭载1-2块CPU,GPU数量显著占优。按GPU数量,可分为四路、八路和十六路服务器,其中搭载8块GPU的八路Al服务器最常见。u AI服务器相较于普通服务器存在各方面升级。AI服务器增加了GPU的使用数量,相配套的在带宽、散热、内存、存储等方面也会有相应升级。图表33 NVIDIA H100服务器图表34 浪潮信息服务器资料来源:英伟达官网、中关村在线、超能网、华金证券研究所 23请仔细阅读在本报告尾部的重要法律声明AI服务器:主流AI芯片V100/A100/H100u V100:NVIDIA于2017年5月发布V100 Tensor Core GPU。采用NVIDIA Volta架构,可在单个GPU中提供近100个CPU的性能,减少优化内存使用率的时间。u A100:于2020年5月发布,采用全新Ampere安培架构的超大核心GA100,7nm工艺,542亿晶体管,826平方毫米面积,6912个核心,搭载5120-bit 40/80GB HBM2显存,带宽近1.6TB/s,功耗400W。可针对AI、数据分析和 HPC 应用场景,在不同规模下实现出色的加速。u A800:于2022年11月推出,用于替代A100。传输速率为每秒400GB,低于A100的每秒600GB,代表了数据中心的性能明显下降。A800支持内存带宽最高达2TB/s,其他参数变化不大。u H100:于2022年4月发布,由800亿个晶体管组成,采用全新Transformer引擎和NVIDIA NVLink互连技术,以加速最大规模的AI模型,如大型语言模型,并推动对话式AI和药物发现等领域的创新。图表35 NVIDIA V100 图表36 NVIDIA A100图表37 NVIDIA A800 图表38 NVIDIA H100资料来源:CSDN、中华网、英伟达官网、华金证券研究所 24请仔细阅读在本报告尾部的重要法律声明AI服务器:算力摩尔定律延续性能参数 V100 PCleA10080GB PCleA80080GB PCleH10080GB PCleFP64 7TFLOPS 9.7TFLOPS 26 TFLOPSFP32 14TFLOPS 19.5TFLOPS 51 TFLOPSFP16 Tensor Core 312TFLOPS 756.5 TFLOPSGPU显存 32/16GB HBM2 80GB HBM2e 80GBGPU显存带宽 900 GB/s 1935GB/s 2TB/s最大热设计功耗(TDP)250瓦 300W 300-350W多实例GPU最多7个MIG每个10GB外形规格PCle双插槽风冷式或单插槽液冷式PCle双插槽风冷式互连技术NVLink:300 GB/sPCIE:32 GB/s搭载2个GPU的NVIDIANVLink桥接器:600GB/sPCle 4.0:64GB/s搭载2个GPU的NVIDIANVLink桥接器:400GB/sPCle 4.0:64GB/sNVLink:600GB/sPCle 5.0:128GB/s服务器选项 搭载1至8个GPU的合作伙伴认证系统和NVIDIA认证系统图表39 英伟达主要芯片比较资料来源:CSDN、英伟达产品数据表、华金证券研究所 25请仔细阅读在本报告尾部的重要法律声明AI服务器:算力硬件成本更高,单台价值突破百万内存32:内存支持LRDIMM/RDIMM/BPS,可提供优异的速度、高可用性及最多 4TB 的内存容量u 以AI服务器NF5688M6为例,该服务器采用2颗第三代Intel Xeon可扩展处理器+8颗英伟达A800 GPU的组合,每颗A800售价104000元,故该服务器芯片成本约96万元,相比于通用服务器NF5280M6,贵出近8倍。GPU8:任意两个 GPU 之间可以直接进行数据 P2P 交互,GPU 间 P2P 通信速率为400GB/sCPU2:配合领先的 UPI 总线互联设计,可为深度学习业务场景提供顶级 AI 计算性能硬盘8/16:支持多种灵活的硬盘配置方案,提供了弹性的、可扩展的存储容量空间,满足不同存储容量的需求和升级要求。网卡:可选配1张PCIe 4.0 x16 OCP 3.0网卡,速率支持10G/25G/100G处理器2:第三代英特尔至强可扩展处理器(Ice Lake),单颗处理器高达40核、最高睿频频率 3.7GHz,最多 3 条 UPI 互连链路,速率最高可达11.2GT/s。图表40 浪潮信息 NF5688F6 图表41 AI服务器主要结构资料来源:浪潮信息官网、爱道数科、华金证券研究所 26请仔细阅读在本报告尾部的重要法律声明传统服务器需求:下游需求多点开花,金融行业投资加速u 服务器下游需求多点开花。下游需求主体为互联网企业、云计算企业、政府部门、金融机构、电信运营商等。其中互联网行业占比43.8%,位列第一。在互联网行业中服务器需求主要集中在快手、百度等大型企业。运营商、金融、政府占比分别为10.6%、9.9%、9%。u 各行业服务器投资支出不断提升:IDC统计数据显示,2022年全球云基础设施支出达到了750亿美元,比2021年的650亿美元提高了15.4%,全球金融行业对服务器的投资增长了20%,达到180亿美元。图表43 云计算&互联网厂商资本开支增速与服务器市场增速显著正相关图表42 国内服务器下游应用结构分布资料来源:中商情报网、智研咨询、搜狐、华金证券研究所 27请仔细阅读在本报告尾部的重要法律声明AI服务器需求:大模型不断涌现,训练需求爆发u AI服务器的采购群体较为集中。主要集中在互联网厂商,政府、高校的需求量相对较少。其中高校主要需要训练模型。u 华为盘古 NLP 大模型,该模型采用了深度学习和自然语言处理技术,并使用了大量的中文语料库进行训练。该模型拥有超过 1 千亿个参数,可以支持多种自然语言处理任务,包括文本生成、文本分类、问答系统等。图表44 2022年AI服务器采购厂商占比图表45 华为盘古大模型资料来源:Trendforce、IT之家、科技真探社、华金证券研究所 28请仔细阅读在本报告尾部的重要法律声明传统服务器供给:市场增长稳定,产能自给自足 u 全球2021年服务器出货量1353.9万台;中国2021年服务器出货量391.1万台。u 据IDC2022年第四季度中国服务器市场跟踪报告Prelim统计,浪潮信息份额28.1%、新华三份额17.2%、超聚变份额10.1%;浪潮信息服务器22年出货158万台服务器。图表46 2021年全球服务器厂商份额占比测算出货量 2022E 假设单价市场空间测算(亿元)全球全球2021年服务器出货量1353.9万台1380万台2021年全球服务器平均单价高达7328美元/台(约合人民币4.9万元)1380*4.9=6762中国我国2021年服务器出货量391.1万台400万台单台双路服务器价格为4-5万(中国市场平均价格约为4.3万元)400*4.3=1720图表47 全球和中国服务器市场规模测算资料来源:知乎、C114通信网、财闻网、观研天下、华金证券研究所 29请仔细阅读在本报告尾部的重要法律声明AI服务器供给:国内芯片性能及产能受限u 英伟达芯片产能不足,限制服务器量产:AI服务器需要配备4-8颗GPU,英伟达在GPU市场占有绝对优势,占据全球八成市场份额。其产能有限,同时受到美国禁售影响,影响服务器产能。u 国产替代化正当时,但仍存在差距:国产寒武纪、昇腾也研发出AI芯片,寒武纪的思元芯片目前多应用在推理场景,通用性较弱,性能不足。公司 布局 预计业绩增长情况鸿海通过旗下工业富联(FII)与鸿佰科技冲刺AI服务器业务,已着手开发下一代AI服务器产品预计鸿海今年AI服务器占比将超过30%,较去年大增五成,稳居全球最大AI服务器厂。广达领先与英伟达合作,通过旗下云达推出英伟达全新HPC-AI服务器。将持续扩充AI服务器产能。服务器产品营收占比已达三成,预期全年出货可望成长个位数百分比。仁宝 冲刺发展AI产品多元应用,力拼实质提升市场需求出货量今年估计可年增双位数百分比;预估2025年5G、服务器等新事业营收占比可望达5%,2026年力拼翻倍至10%。纬创通过旗下纬颖布局云端服务器领域,包括提供系统解决方案服务,设计一系列巨型资料中心等各种云端服务。目前营收占比约20%,今年已到手新订单中,超过五成为AI服务器。英业达往年旗下服务器营收占比仅约5%,预估英业达明年AI服务器业务表现年增双位数百分比。图表48 AI服务器代工情况资料来源:知乎、集微网、华金证券研究所目录010203算力进展大模型:价值量、网络架构整体跃升服务器:算力承载,AI服务器价值凸显算力商业机会演进的路线选择投资建议与风险提示04交换机:交互连接,算力网络中枢算力测算 31请仔细阅读在本报告尾部的重要法律声明网络架构:传统三层网络管理网络的经典稳定架构图表49 传统三层网络架构 图表50 企业网络三层网络架构u 核心层(Core Layer):核心交换机为进出数据中心的包提供高速的转发,为多个汇聚层提供连接性,核心交换机通常为整个网络提供一个弹性的L3路由网络。u 汇聚层(Aggregation Layer):汇聚交换机连接接入交换机,同时提供其他的服务,例如防火墙,SSL offload,入侵检测,网络分析等。它可以是二层交换机也可以是三层交换机。u 接入层(Access Layer):接入交换机通常位于机架顶部,所以它们也被称为ToR(Top of Rack)交换机,它们物理连接服务器。通常情况下,汇聚交换机是 L2 和 L3 网络的分界点:汇聚交换机以下的是 L2 网络,以上是 L3 网络。每组汇聚交换机管理一个POD(Point Of Delivery),每个POD内都是独立的 VLAN 网络。资料来源:知乎、CSDN、华金证券研究所 32请仔细阅读在本报告尾部的重要法律声明图表51 叶脊架构与传统架构对比 图表52 Leaf(叶)交换层各节点名称及功能图表53 叶脊架构优势扁平化 易扩展带宽利用率高低延迟安全性高u 随着数据中心内流量的快速增长和数据中心规模的不断扩大,传统的三层网络拓扑结构不能满足的数据中心内部高速互连的需求,慢慢演进为leaf-spine叶脊架构,叶脊架构分为两层:Leaf(叶)交换层、Spine(脊)交换层。u Spine(脊)交换层:网络核心节点,提供高速 IP 转发能力,通过高速接口连接各个功能 Leaf 节点。u Leaf(叶)交换层:网络功能接入节点,提供各种网络设备接入功能。网络架构:叶脊网络扁平化高速新型架构资料来源:通信百科、鸿鹄论坛、知乎、华金证券研究所 33请仔细阅读在本报告尾部的重要法律声明网络架构:基于叶脊的升级流量模块化架构图表54 Facebook F4网络架构 图表55 Facebook F16网络架构 u Facebook从14年开始对原有的数据中心网络架构进行改造,原因就在于面对网络流量2-4倍的未来扩张,现有的三层网络架构难以胜任。u Facebook提出了自己的下一代数据中心网络data center fabric网络架构(也称为F4网络),在原始叶脊网络基础上进行模块化组网,能够承载数据中心内部的大量东西流量的转发,并且保证了足够的扩展性。u Facebook于19年提出了F16架构,原因在于F4架构在网络流量持续上涨、硬件更新换代的现在已经难以满足数据中心的需求。u Spine平面增加为16个。单芯片处理能力提升为12.8TBps,减少体积,仅需跨越5个芯片即可通过路径。u 机架采用Wedge 100s,拥有1.6T上行带宽和1.6T下行带宽,流量收敛比达到1:1;机架上方的平面包含16个128端口的100G光纤交换机。资料来源:知乎、华金证券研究所 34请仔细阅读在本报告尾部的重要法律声明网络架构:基于叶脊的升级动态分布式网络架构图表56 Google Jupiter网络架构 图表57 Google Apollo结构u 谷歌数据中心第五代架构Jupiter Network Fabrics。Jupiter可以视为一个三层Clos。Leaf交换机作为ToR(top-of-rack架顶式交换机),向北连接到名为Middle Block的Spine交换机,再向北还有一层Super Spine名为Spine Block。u Apollo结构。Super spine方案的交换机数量可以一直增长,新增交换机需要和原有的Pod全部互联。为解决互联问题,谷歌在Spine层和Pod层之间加入Apollo Fabric。此结构解除了Spine Block和Super Block的直连,但又能够动态地调整连接关系,高效实现了全互联,动态地调整网络流量的分布。资料来源:墨天轮、华金证券研究所 35请仔细阅读在本报告尾部的重要法律声明数据中心交换机:算力网络的底座框式交换机盒式交换机端口数量较少支持高速连接数据传输低延迟汇聚层高性能和高可用性大容量的交换能力高速的转发能力承载大量的流量连接方式灵活支持上行、下行链路连接接入层核心层图表58 按位置分类交换机特点图表59 按形态分类交换机示意图u 交换机相当于一台特殊的计算机,由硬件和软件组成,负责构建网络进而实现所有设备的互联互通,是算力网络底座的主要组成部分。u 数据中心交换机的功能:1、网络数据流量分发;2、处理大带宽数据。u 数据中心交换机按照位置分类可分为接入层交换机、汇聚层交换机和核心层交换机。u 数据中心交换机按照形态分类可分为盒式交换机(多位于接入层和汇聚层)和机框式交换机(多位于核心层)。资料来源:知乎、码农家园、华金证券研究所 36请仔细阅读在本报告尾部的重要法律声明图表60 华为交换机产品位置图图表61 交换机选择标准(以包转发率和背板带宽为主要决定参数)u 接入层、核心层、汇聚层交换机的重要参数是交换机的背板带宽和包转发率。u 背板带宽是交换机接口处理器或接口卡和数据总线间所能吞吐的最大数据量,标志了交换机总的数据交换能力。u 包转发率指交换机每秒可以转发多少百万个数据包(Mpps),即交换机能同时转发的数据包的数量,以数据包为单位体现了交换机的交换能力。u 决定包转发率的重要指标是背板带宽,背板带宽越高,所能处理数据的能力就越强,包转发率也就越高。数据中心交换机:背板带宽和包转发率是两大核心资料来源:知乎、CSDN、百度百科、华金证券研究所 37请仔细阅读在本报告尾部的重要法律声明图表62锐捷网络100G交换机u 产品支持48*100G DSFP端口+8*400G QSFP-DD端口,2*电源模块,6*风扇模块。包转发速率可达5350Mpps。图表63 华为200G交换机u 产品采用华为iLossless智能无损算法,支持32*200G端口或8*400G端口。交换容量可达19.2Tbps,包转发速率7200Mpps。图表64 新华三400G交换机u S10500X-G采用CLOS无中板交换架构,交换容量384-1024Tbps,包转发速率72000-1920000Mpps。图表65 华为800G交换机u CloudEngine 16800-X支持288*800GE端口,3.5微秒跨板转发时延,支持三网融合,总运营成本可降低36%。u 数据中心交换机根据接口速率不同,可分为100/200/400/800G交换机;不同速率交换机的单板能力(每个插槽的端口数量或者带宽)越来越强,所有端口升级一次其传输容量将直接翻倍。u 我国主要厂商突破技术瓶颈,实现快速发展。新华三旗下S10500、S12500等系列交换机,多采用CLOS架构,提供Seerblade高性能AI计算模块,目前已形成了完整的数据中心产品体系。华为主推CloudEngine系列数据中心交换机,系列基于华为新一代的VRP8操作系统,2023Q1该系列以34.6%的份额排中国数据中心交换机市场第一,其中16800-X为全球首款800GE数据中心核心交换机。数据中心交换机:主流100/200/400/800G交换机资料来源:新华三官网、三合实业、锐捷官网、华为官网、搜狐、华金证券研究所 38请仔细阅读在本报告尾部的重要法律声明图表66 锐捷NPO交换机图表67 硅光技术形态概览u NPO交换机,应用NPO(Near Packaged Optics)近封装光学技术,属于传统可拔插(Pluggable)向CPO技术的过渡阶段。u NPO交换机可以在CPO技术生态完备之前,在最短时间内享受到低成本、低功耗的收益。u 锐捷51.2T硅光NPO冷板式硅光交换机在1RU的空间内,实现了64口800G的超高密度端口设计,升级了外置激光源的设计方案。采用独立迷你交换板设计,大幅降低了高速率PCB的成本。NPO交换机:传统可拔插向CPO过渡(封装角度)资料来源:鲜枣课堂、锐捷官网、华金证券研究所 39请仔细阅读在本报告尾部的重要法律声明图表68 OFC第二代51.2T CPO图表69 CPO技术框架图u CPO交换机,应用CPO(Co-Packaged Optics)光电共封装技术,将网络交换芯片和光模块共同装配在同一个插槽上,形成芯片和模组的共封装,可以缩短交换芯片和光引擎之间的距离,以帮助电信号在芯片和引擎之间更快地传输。u CPO具备高密度、低成本、小体积、低功耗的特点,成为AI高算力情况下降低能耗从而降低成本的可选方法。u 海外市场,高速率板块对CPO需求更为迫切,国内上量节奏紧随其后。u 第二代CPO容量倍增,单波100Gbps,一个引擎64个通道,采用外置激光器。光模块部分实现了低功耗,可达7pJ/bit。CPO交换机:硅光技术的最终形态(封装角度)资料来源:鲜枣课堂、同花顺、光通信女人、华金证券研究所 40请仔细阅读在本报告尾部的重要法律声明图表71 IB交换机和以太网交换机区别u IB 交换机全称InfiniBand 交换机,IB属于RDMA技术,与TCP/IP技术在机理上不同。在市场上,Mellanox InfiniBand 交换机、Intel 和 Oracle InfiniteBand 交换机是三大名牌领先的 IB 交换机。其中Mellanox IB交换机 QM8790交换机可提供多达提供多达 40 个 200Gb/s 端口。IB交换机:适用于IB网络的交换机(网络协议角度)图表70 RDMA工作原理资料来源:华为官网、网络技术联盟站、芯语、知乎、Chatgpt、华金证券研究所 41请仔细阅读在本报告尾部的重要法律声明全球:200/400G拉动整体市场增长图表73 各速率交换机市场同比变化情况 图表72 2023年第二季度全球以太网交换机市场u 云计算业务和云流量快速发展,全球数据中心交换机市场继续保持强劲增长。2022年,全球交换机市场规模为365亿美元,同比增长18.7%。全球数据中心用以太网交换机收入占比达47%,同比增长20.8%,相应的端口出货量同比增长3.7%;u 200/400Gb交换机拉动整体市场增长。2022年200/400GbE交换机的市场收入增长超过300%,第四季度收入环比增长为0.7%。2022年第四季度,100GbE收入同比增长18.7%,全年增长22.0%,第四季度25/50GbE收入同比增长30.1%,全年增长29.8%。资料来源:中商产业研究院、IDC、传感器专家网、华金证券研究所 42请仔细阅读在本报告尾部的重要法律声明图表74 17-22年中国交换机市场规模变化趋势(单位:亿美元)36%32%14%4%14%华为 新华三 星网锐捷 思科 其他图表75 2021年中国交换机各公司市场份额 图表76 2022年全球交换机各公司市场份额u 受益于强劲的AI需求,中国交换机市场规模持续扩张。2021年中国交换机行业市场规模为501亿元,同比增长17.33%,预计2023年市场规模达到685亿元。u 国产设备商快速崛起。2021年中国市场数据中心交换机前四厂商为华为、新华三、星网锐捷和思科。从份额占比来看当前国内交换机市场双龙头格局特征显著,华为占比36%、新华三占比32%。u 中国厂家在全球市场仍有较大扩张空间。2022年全球交换机市场份额,上榜公司有华为、新华三,共占比15.7%。主要市场仍为思科占领,为43.3%。国内:国产厂商快速崛起,海外仍有较大扩张空间资料来源:中商产业研究院、传感器专家网、IDC官网、前瞻产业研究院、华金证券研究所 43请仔细阅读在本报告尾部的重要法律声明数据中心交换机:硬件国产化进度仍需加快图表77 Edge-core 白盒交换机图表78 各硬件部位功能拆解u 交换机的主要硬件可分为接口模块、控制模块、交换模块、供电模块几个部分,可分为黑

注意事项

本文(20230917_华金证券_2023年通信行业研究报告算力底座算力承载与网络中枢_90页.pdf)为本站会员(15723693685)主动上传,报告吧仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知报告吧(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2017-2022 报告吧 版权所有
经营许可证编号:宁ICP备17002310号 | 增值电信业务经营许可证编号:宁B2-20200018  | 宁公网安备64010602000642号


收起
展开