行业资讯 大模型升级驱动CPO新型交换机进入商用阶段_技术资料_天博克罗地亚官网-天博克罗地亚首页
当前位置: 首页 > 技术资料

行业资讯 大模型升级驱动CPO新型交换机进入商用阶段

作者:天博克罗地亚  时间:2025-03-03 08:55:25

  当前 CPO 行业处于快速发展阶段。行业内的领军企业如英特尔、博通和美满科技等已推出多款基于 CPO 技术的量产产品。根据智研咨询数据,全球 CPO 交换机的销售量预计将从2023年的5万端口迅速增长至2027年的450万端口。大集群训练中的跨机柜甚至跨地域传输交换中的带宽时延与动态拓扑问题未来将由OCS全光网络交换机解决。锐捷网络已发布 25.6Tbps CPO 交换机;新华三已推出 800G CPO 硅光数据中心交换机;中兴通讯在 CPO 相关的光引擎和光电封装等技术领域进行研究。

  CPO/OSC 等新型交换机正在美国市场进入商用阶段,将成为国内交换机行业的战略高地

  美国头部 CSP 厂商的大模型已进入到万卡、十万卡集群训练阶段,在单口传输量大幅攀升阶段,传统可插拔光模块及交换机在传输功率散热、延迟、空间布局等多方面已面临瓶颈。

  以 800G 光模块为例,800G 可插拔模块功率约为为每端口 16W 至 18W,除带来能耗问题外,还带来系统整体散热量过高。交换侧与光模块存在一定连接距离,导致大功率电信号在传输路径上信号衰减后完整性下降。

  光电共封装(CPO)交换机指的是交换 ASIC 芯片和硅光引擎在同一高速主板上协同封装。CPO 技术能缩短交换芯片和光引擎之间的距离,帮助电信号在芯片和引擎之间更快地传输;不仅仅可以减少尺寸,提高效率,还能够更好的降低功耗。同时有利于超大规模紧凑部署,有效地解决了上述问题。

  1.1.美国大模型市场已进入 CPO 交换时代,同时下一代 OSC 全光网络交换机已处于大规模商用前夕

  随着数据中心和AI应用的加快速度进行发展,市场对高速、高带宽、低功耗的光通信解决方案的需求持续增长。CPO 技术凭借其卓越的集成度和传输效率,已成为满足这一市场需求的优选方案。当前,全球 CPO 行业正处于快速发展阶段。行业内的领军企业,如英特尔、博通和美满科技等,已纷纷推出多款基于 CPO 技术的量产产品。博通率先发布了交换容量为 51.2T 的 CPO 版本 Tomahawk 5 交换芯片,该芯片通过 8 个高速光引擎实现对外互联,单通道速率高达 6.4Tb/s,充分展示了 CPO 技术的强大性能。此外,云服务领域的巨头如META 和 Microsoft 也积极投身于 CPO 技术的发展之中,共同创建了 CPO 联盟,旨在推动CPO 标准的制定与产品的持续创新。

  英伟达或将于 2025 年 3 月召开的 GTC 大会推出 CPO 交换机新品,若进展顺利今年 8月就可以实现量产。该 CPO 交换机预计将支持 115.2Tbps 的信号传输。当前,台积电已验证1.6Tbps 传输速率的小型通用光引擎,并正在测试 3.2Tbps 产品。美国大模型市场已进入到 CPO 互联交换时代。

  国内大模型在 2025 年进入到万卡互联阶段,同样会面对功率、散热、时迁、集群、规模等瓶颈制约。CPO 交换机的大规模商用仍是解决以上问题的必由之道。目前国内 CPO 交换机处于商用前夕试验试用阶段。华为在《数据中心 2030》报告中指出,CPO 技术已成为业界热点。随着行业内龙头企业的持续推动,CPO 技术的商业化步伐日益加快。

  LightCounting 预测,CPO 的出货量将从 800G 和 1.6T 端口开始逐步增加,并在 2024 至2025 年开始商用,2026 至 2027 年有望实现规模化量产,市场份额将保持高速增长。根据智研咨询数据,全球 CPO 端口的销售量预计将从 2023 年的 5 万端口迅速增长至 2027 年的 450 万端口,按单机 64 端口估算,则对应 2027 年约 7 万台 CPO 交换机出货量;全球CPO 市场规模到 2033 年将增长至 26 亿美元,2022-2033 年 CAGR达 46%。

  锐捷网络已发布25.6Tbps CPO交换机;新华三已推出800G CPO硅光数据中心交换机 (H3C S9827 系列),单芯片带宽高达 51.2T,支持 64 个 800G 端口,并融合 CPO硅光技术、液冷散热设计、智能无损等先进技术,全面实现智算网络高吞吐、低时延、绿色节能三大需求;中兴通讯已申请了涉及 CPO 模块的激光光源选择方法的专利,该专利不仅限于 800G 的传输容量,目前处于 CPO 技术研究阶段。

  考虑前述海外大模型 2025 已进入 CPO 交换机正式商用阶段,国内大模型快速进入到超大规模训练、推理阶段,拥有规模量产 CPO 交换机能力的交换机厂商有望在竞争日益激烈的交换机市场中拔得头筹,抢占战略高地。同时建议关注光引擎供应商天孚通信等。

  此外 CPO 交换机方案中,交换机内新增光纤部署的需求,无源器件使用量大幅增加。过去可插拔光模块方案中,交换机内部以电信号传输为主,无光纤部署;而 CPO 交换机内部由于有光信号的传输,额外增加了光引擎到交换机前面板的光纤布线。光纤数量显著增加,需要 MPO 实现端口密度的提升、节省面板空间。

  光纤密度较高还引入了光纤柔性线路产品(Shuffle Box)实现光纤拓扑的重分配。Shuffle Box 能将光纤信号有效地分配和连接到多个交换芯片/光引擎上,避免不同光学组件的交织或缠绕,确保长期的机械可靠性、可维护性,降低信号损耗,并减少所需的空间。太辰光 MPO 等业务充分受益。

  在 CPO 交换机解决了柜内数据互联中的功耗、时延等问题的同时,大集群训练中的跨机柜甚至跨地域传输交换中的带宽时延与动态拓扑问题未来将由 OCS 全光网络交换机解决。OCS 交换机负责在光纤间建立和断开连接,高性能的光交换能够实现毫秒级或更快的切换速度,对于满足数据中心动态流量需求至关重要。

  根据 ODCC 报告,与传统胖树网络架构相比,OCS 灵活组网架构计算时间更短,且数据量越大收益越明显。在通信数据量大于 4MB 后,OCS 组网方案相比胖树方案计算时间可缩短20%-34%。

  谷歌在 Jupiter 项目中使用光交换机(OCS)实现可重构的数据中心网络,使 Jupiter 能够逐步整合 40Gbps、100Gbps、200Gbps 和更高的网络速度。除了比静态 Clos 结构提高 5倍的速度、容量和额外的灵活性外,还使架构和增量成本降低了 30%,功耗降低了 41%。为了支持 AI 训练等大规模计算,谷歌陆续研发了 TPUv4 和 TPUv5 等多代基于 OCS 可重构网络的超级计算机。新一代 TPUV5 将 POD 规模扩大了一倍,部署 OCS 方案可以将集群可用率提高到约 50%。

  微软宣布未来 24 个月计划部署 15000 公里的空芯光纤(Hollow Core Fiber),提高数据传输能力;META 尝试使用可重新配置的光交换机和配线 届 USENIX 网络系统设计与实现。受限于电力能源供应和资源调配等,未来跨区域的大型集群中的交换互联将更多地应用到 OCS 交换机。

  目前国内交换机厂商除头部已有较少产品进入试商用式少批量试用阶段,行业整体处于起步阶段。锐捷网络的以太全光网络交换机已广泛应用于各类园区网建设;紫光股份旗下新华三集团已发布“全光网络 3.0 解决方案”;中兴通讯拥有 ZTE iCampus 行业数智全光方案。按前述美国未来将有大量异地分区部署的超大规模集群训练,国内产业趋势亦会继续超赶,拥有全光网络交换机或解决方案相关企业值得重点关注。

  AI 行业对交换机行业在流量交换需求、网络架构、交换机构造等方面带来巨大变化

  AI 行业发展至今,已从大模型训练阶段向推理阶段迈进,从 2024 年初 OpenAI 推出的 Sora视频大模型,到随后的 O1 草莓大模型,乃至 2025 年初火遍全球的 Deepseek 大模型,从其适用的场景或者倚重的功能等角度去解读,均被认为是具有先进模型体系但又可用于多种实际应用的非单一训练功能的大模型。从行业发展角度看可被解读为是 LLM 行业加速超预期发展的现象。我们认为 LLM 正在以超市场预期的速度加速推进和演化。

  海外大厂不断加大 AI 方向资本开支,对服务器、网络设备等设施加大投入。2023、2024年相关资本开支持续上行。2024 年 Q4 单季度,微软/谷歌/META/亚马逊资本开支分别为149.23/130.61/82.58/226.20 亿美元。微软计划在 2025 财年投资约 800 亿美元用于开发数据中心,以训练人工智能模型,并部署人工智能和基于云的应用程序;谷歌 2025 年的资本支出计划高达 750 亿美元,较市场预期超出了 32%;亚马逊计划在 2025 年将资本支出提升至 1000 亿美元,较 2024 年的 830 亿美元大幅增长;扎克伯格预计 2025 年 Meta资本支出最高 650 亿美元,高于分析师预期。我们预计 AI 相关产业链如交换机等将受到行业发展带动持续快速发展。

  就交换机行业而言,作为大模型网络硬件架构中仅次于算力卡的关键部件,其自身的演化亦受到大模型行业的深刻进化而出现重大变化,这中重要意义在于交换机行业的投资逻辑从普通的 ICT 行业子版块由量价驱动的周期性特征,转向了由大模型行业驱动的成长性特征。

  我们认为,有以下由大模型带来的变化,将会深刻改变交换机行业未来发展路径。首先是来自于 AI 对流量驱动的非线性增长,这使得交换机的端换速率和总处理能力呈现跳跃式抬升;第二是流量的方向将从以竖向为主转换为横向互联为主的流量方向,多层级互联的网络架构在交换机处理能力提升的前提下,交换机使用数量于核心处理器的配比比例提升,使得交换机数量与数据流量的增长出现非等比例的增长;最后,AI 训练与推理中的时常触发的不可预测事件较其它网络事件明显增多,对交换机的流量调控和拥塞解决能力要求提高。

  以上变化进而影响了交换机的技术和网络架构层面。在技术层面上,高速率和低延迟要求使 800G/1.6T 交换速率的交换机加速推向市场供大模型训练使用;cpo/ocs 等新型交换机将有效降低网络时延并减少功耗。在网络架构层面上,可编程交换机等将更适合大模型分布式部署;基于时间敏感网络的小型交换机适合边缘侧的推理架构。

  2024 年国产大模型训练侧产业链起量加速节奏明显加快。国产 800G 交换机已少数量产。英伟达主动将以太网技术引入到大模型架构中,国产交换机厂商突破 IB Switch/NV Link等互联壁垒,可同时为进口和国产算力卡模型提供互联/交换网络。目前国产大模型中,国产交换机已承担起挑大梁的角色,我们认为在技术封锁和国产替代的背景下,国产交换机投资逻辑更将从前述的交换行业变革中找到各公司自身的阿尔法。

  DeepSeek 通过低成本、高效能的大模型部署,降低了边缘计算的准入门槛,使得更多企业能够在边缘设备上部署 AI 应用。这种趋势直接带动了对交换机等边缘计算基础设施的需求。同时 DeepSeek 大模型的快速普及带来了海量的推理需求,尤其是在实时性要求较高的场景(如自动驾驶、工业物联网)中。这种需求推动了边缘侧和推理侧算力基础设施如交换机的部署。推理端/边缘端更多用到中小型交换机,国产交换机有望在此轮浪潮中深度参与。

  2025 年国内大模型的投资方主要有互联网厂商、电信运营商、政府及相关部门。以字节、腾讯、阿里等头部互联网商预计投资额预计将大幅增长,其中字节资本支出将超过 1500亿元,其余各家也均在大模型军备竞赛中秣兵厉马。国内大模型行业有望复制北美大模型市场,即 CSP 厂商军备竞赛抢夺资源。

  在大模型中,约有 60%左右金额用于硬件采购。以字节为例,其 1500 亿资本开支中将约有 1000 亿用于硬件设备采购。在硬件采购中,交换机等网络设备采购约占总资本开支的 11%。在国产替代加速背景下,AI 领域国产交换机市场空间广阔。

  3.2.训练端 800G 及更高速率以太网交换机有望占据国内大模型交换机市场主要份额

  海外大模型厂商在 2024 年已开始大规模部署 800G 交换机用于训练。考虑算力增长速度远高于网络带宽增长,高速交换机是在现有通信网络中平衡容纳高算力的关键。在GPT4 的训练中约使用到了25000张A100算力卡,A100的显存带宽每秒超过 2 万亿字节 [TB/s],互联带宽为 600GB/s,这使得 400G/200G 交换机的带宽难以满足。

  目前 Google 的 PaLM2 等大模型算力参数量已过万亿大关,需要更大规模的集群算力,谷歌自研了基于 SDN 技术的 800GE 交换机 OpenFlow 4.0,支持高达 128 个 800GE 端口。2024年 12 月谷歌发布其第六代人工智能加速器芯片 Trillium,支持单集群 10 万+TPU 互联,支持 Gemini 2.0 AI 模型的训练。与上一代产品相比,该芯片的高带宽内存容量和芯片间互连带宽增加了一倍,带来了更多的高速率交换机需求。在 2024 年 OCP 峰会中,Meta谈到了基于博通 Tomahawk 5 的 Minipack3 64x800G 交换机,拥有高达 51.2Tbps 的传输速率。英伟达 64x800G 的 NVIDIA Spectrum-X 以太网网络平台已被业界广泛使用。

  在国内大模型市场中,800G 交换机在组网中已初现端倪。2023 年华为面向全球发布首款800GE数据中心核心交换机—CloudEngine 16800-X系列,正式开启数据中心800GE时代,并应用于大模型训练中。华为与百度联合发起飞桨+文心大模型硬件生态共创计划,共同推进在昇腾 AI 上与飞桨+文心大模型的适配,充分发挥软硬件协同优势。此外,阿里、腾讯等公司基于成本考虑,使用国产交换机的可能性更高。

  根据 IDC 数据,2023 年,全球交换机市场规模为 395.06 亿美元,同比增长 8%。观研天下预测,2025 年全球交换机市场规模将达到 438.67 亿美元。同时高速交换机细分市场预计将保持强劲增长。高速率交换机占比的提升将带来产品均价提升、毛利率提升,带动交换机行业新一轮快速发展。

  国内大模型行业正迅速由千亿参数规模向万亿、十万亿规模挺进,800G 交换机将成为带动行业高速增长的重要推手。DellOro Group 预计到 2025 年 800G 交换端口采用率有望超过 400G 数据中心交换端口,将占数据中心交换机端口的 25% 以上;到 2027 年,近一半的数据中心交换机端口将由 400 Gbps 及更高速度驱动。根据博研咨询数据,2023 年800G 交换机在中国市场的出货量为 1.5 万台,预计到 2025 年将增长至 6 万台,复合年增长率超过 100%。

  锐捷网络 800G 交换机已实现小规模供货,主要客户为 Tier1 互联网企业,预计从 2025年开始 800G 交换机将逐步进入批量部署阶段;中兴通讯 800G 数据中心交换机已开始市场推广;紫光股份旗下新华三集团已于2024年10月宣布推出首款1.6T智算交换机H3C S9825-8C-G,该产品全面支持单端口 1.6T 转发速率,整机最大支持 16 个 1.6T OSFP 接口;盛科通信已有支持 800G 交换机的交换芯片产品。我们认为,拥有量产 800G/1.6T 交换机/交换芯片能力的公司将在 2025 年国产大模型产业中深度受益。

  3.3 DeepSeek带来推理及边缘算力增量,带动国产200G/400G 交换机有望深度受益

  国产大模型 DeepSeek R1 通过强化学习框架创新、知识蒸馏技术、数据与训练策略优化等方式,实现了与 OpenAI o1 相当的推理性能。如图表 10 所示,在 AIME、MATH、GPQA、LiveCode Bench 等相关测试中,DeepSeek R1 均取得了高分,在数学、代码编写和自然语言推理等任务上表现出色。

  我们认为,DeepSeek R1 的核心意义在于验证了“无需海量标注数据+低成本算力”的可行性,由此将有望推动 AI 推理、AI 端侧的发展。

  DeepSeek-R1 通过知识蒸馏技术将大模型的推理能力迁移至小型模型,降低了端侧设备对计算资源的需求,使手机、PC、AR 眼镜等设备能够高效运行 AI 推理功能。

  从算力成本看,DeepSeek R1 的基础模型 V3 训练总成本为 557.6 万美元,使用 2048 块H800 GPU 集群耗时 278.8 万 GPU 小时,远低于同类模型。从推理成本看,我们参考API服务定价,DeepSeek R1 的 API 定价仅为每百万输入 tokens0.014 美元(缓存命中)/0.14美元(未命中),输出 tokens0.28 美元,仅约为 OpenAI o1 的 3-4%。凭借出色的性能表现与低成本,DeepSeek R1 的有望带来国内各行各业 AI 模型的普及(尤其是推理端),推动信息平权。

  目前 DeepSeek 已在 140 个市场的移动应用下载量排行榜上位居榜首。华为云、腾讯云、阿里云、百度智能云和运营商云等主流云平台相继宣布接入 DeepSeek 系列模型;国内各大芯片厂商、应用端企业正在加速对接 DeepSeek。2 月 5 日,华为表示,DeepSeek 系列新模型正式上线昇腾社区;此前海光信息、摩尔线程、沐曦、云天励飞、昆仑芯科技等芯片厂商也宣布适配上线。

  Gartner 预测 2025 年推理的集群算力规模将超过训练,也将是 AI 走向普及化的关键之年。根据 IDC 此前的预测,预计到 2025 年,用于推理的工作负载的芯片将达到 60.8%。低成本 Deepseek 模型的推出有望进一步提升推理算力需求占比。

  我们认为,相较于 AI 训练,AI 推理对总带宽的需求相对降低。具体原因如下:1)计算精度差异:训练任务需要高精度浮点计算以确保模型准确性,而推理任务多采用低精度计算以提高能效比。相较而言,低精度计算减少了并行数据传输量。2)模型参数规模降低:以 DeepSeek 为例,其通过对大模型的蒸馏而将大模型的推理能力迁移至小模型。推理小模型的参数规模降低,从而减少了对高带宽的依赖。

  3)集群规模与流量特征变化:推理集群的规模往往小于训练集群(千卡甚至百卡级别),对比训练集群多采用万卡级别;且推理集群中流量以低延迟、小批量数据为主,而训练集群需要进行高并发数据的吞吐。因此,中小规模推理集群的通信需求可以通过相对较低的带宽(如 400G)来满足,对应中小型交换机(200G/400G)。

  国产中小型交换机(200G/400G)发布时间较早、技术成熟、有国内互联网客源。华为CloudEngine 16800/新华三 H3C S10500X-G /锐捷 RG-N18000-X 均为 400G 速率交换机,分别发布于 2019/2022/2022 年,并支持国内字节、阿里等互联网厂商,产品成熟度高。而其 800G 交换机产品则发布于 2023-2024 年间,出货规模相对较小。我们认为,200G/400G是国产交换机已大规模商用的速率,伴随 AI 推理、AI 端侧的加速落地,未来其用于算力市场的出货预计将提前加速。

  传统的黑盒设备(品牌交换机)从软件到硬件都是完全封闭开发的,导致不同厂商设备间互通性低,运维团队难以统一管控,且难以快速定位故障。同时,黑盒设备的封闭式架构对后期网络的升级和功能扩展带来不小的阻碍。而白盒交换机是一种软硬件解耦的开放网络设备,通常与 SDN 一起使用,具有灵活、高效、可编程等特点,并且可以显著降低网络部署成本。白盒交换机分为硬件和软件两部分。硬件一般包括交换芯片、CPU 芯片、网卡、存储和外围硬件设备等,其接口和结构需要符合 OCP 标准化规范。软件是指网络操作系统及其网络应用程序。

  1)由于其开放式操作系统,用户可以选择适合自己需求的网络操作系统,从而最大程度地优化网络性能。

  2)相比传统的专有交换机,白盒交换机采用标准化的硬件组件,降低了采购和维护成本。

  3)白盒交换机灵活性和可编程性也使得网络管理员能够更好地适应不断变化的业务需求。无论是新增设备还是调整网络策略,白盒交换机都能够通过软件配置来实现,大大简化了网络管理的过程。

  由于对灵活、经济实惠的网络解决方案的需求不断增加,白盒交换机市场正在迅速扩大。根据 Verified Market Reports,2023 年全球白盒交换机市场规模为 25.58 亿美元,预计到 2030 年将达到 64.25 亿美元,复合年增长率增为 14.07%。

  数据中心通常使用高性能以太网交换机。大型数据中心的网络需求体现在三个方面:高度稳定性、高度可管可控、高性能低成本。数据中心场景需求明确,对软件特性的要求相对简单,拓扑结构明确,非常适合采用白盒交换机。通过部署白盒交换机,相关厂商/企业能够自主掌控软硬件运营体系,搭建更低成本、更为可靠、高度可控、高度自动化、智能化的数据中心网络,最终提供更优质服务。从国内以及全球数据中心网络设备市场来看,网络软件化和硬件白盒化慢慢的变成了了趋势,尤其受到互联网厂商青睐。

  国内交换机厂商如新华三、锐捷网络等已有成熟的白盒交换机产品,菲菱科思已拓展自研的白盒交换机产品,未来有望深度受益。

  以太网自 1973 年发明以来,已经历 40 多年的发展历程,因其同时具备技术成熟、高度标准化、带宽高以及低成本等诸多优势,已成为当今世界应用最普遍的局域网技术,为万物互联提供了基础。以太网自 1973 年诞生后的前 30 年间接连发展出了 10M、100M、 1000M、10GE、40GE、100GE 6 种以太网速度标准,近几年为了适应应用的多样化需求,以太网速率打破了以 10 倍为来提升的惯例,开始出现 2.5GE、5GE、25GE、50GE、200GE、 400GE 等新的以太网速率标准。

  InfiniBand 是一种高速网络技术,具有高性能、低延迟、可靠和灵活的数据传输功能,适用于要求高速存储访问和大规模数据处理的应用场景,如高性能计算、大数据分析和虚拟化存储等。InfiniBand 网络带宽从 SDR、DDR、QDR、FDR、EDR、HDR 到NDR 发展。作为高性能互联技术的早期创新者,Mellanox 率先推出了 InfiniBand 互联技术。2019 年英伟达以 69 亿美元收购 Mellanox,成为 IB 市场的主要玩家,推动其在 AI 集群中的应用。

  1) 高吞吐量:InfiniBand 提供的带宽远高于传统以太网,适合大规模数据传输。

  2) 低延迟:InfiniBand 的设计优化了数据传输的延迟,对于延迟敏感的应用非常重要

  3) 可扩展性:InfiniBand 支持构建大型和复杂的网络拓扑结构,适合高性能计算和数据中心。

  4) 网络计算:InfiniBand 支持网络计算功能,可以卸载部分计算任务到网络 硬件只,减轻主机 CPU 的负担。

  当前,InfiniBand凭借技术优势、英伟达生态占据AI训练模型网络解决方案的主要份额。1)技术优势:InfiniBand 具备低延迟、高带宽、高稳定性、无损性的优势,非常适用于超大规模的高性能智算中心,同时 InfiniBand 架构有先发优势,2000 年 InfiniBand 架构规范的 1.0 版本正式发布,领先于 RoCE 以太网十年之久。2)英伟达生态:GPU+IB+Mellanox 是英伟达提供的配套解决方案,共同形成了英伟达人工智能生态。

  1)从以太网技术本身看,其性能差距与 InfiniBand 不断缩小。以太网通过 RDMA、RoCE等协议使得其性能大幅接近 InfiniBand。从 Meta 在 24 年 3 月公布的2 个24K H100 GPU集群看,其分别采用了基于 Arista 7800 交换机的以太网网络解决方案,与基于英伟达Quantum2 的 InfiniBand 网络解决方案,均有出色的性能表现。

  2)超算中心大型化趋势下,以太网方案为刚需。IB 网络一旦建成,增添节点步骤繁琐,可扩展性差,以太网生态开放,对部件损坏的容忍度高。

  3)AI 推理需求崛起、ASIC 份额扩大的加持之下,以太网发展将面临机会窗口。从生态看, InfiniBand 与以太网之争背后,也是英伟达与博通之间的人工智能生态竞争(英伟达的GPU+IB+Mellanox VS 博通的 ASIC+以太网交换机+CPO)。伴随博通 ASIC 的放量,我们认为以太网发展也将面临机会窗口。

  目前,微软在与 OpenAI 的星际之门计划中选择了以太网网络方案,谷歌的 B4 网络也是一个大规模部署以太网的成功案例。2023 年 5 月 29 日,NVIDIA 推出 NVIDIA Spectrum-X 网络平台,致力于提高基于以太网 AI 云的性能与效率。Spectrum-X 配备 NVIDIA Spectrum SN5600 以太网交换机和 NVIDIA BlueField-3 SuperNIC,是一个兼顾了生成式AI云所需高性能和各种云功能的端到端平台,是全球首款专为AI打造的以太网网络平台,可将生成式 AI 网络性能较传统以太网网络平台提升 1.6 倍。2024 年 6 月2 日,黄仁勋在COMPUTEX 2024 上宣布 NVIDIA Spectrum-X 以太网网络平台已被业界广泛使用,并且将进一步加快新品发布计划。

  国内方面,百度、字节跳动、华为、新华三等厂商是超级以太网联盟重要成员。行业应用以太网决心不断彰显。同时随着未来 AI 应用逐步落地、推理需求起量,盈利将成为 AI 发展进程中的重要目标节点,模型训练及推理的性价比将逐渐成为大厂发展 AI 业务的重要考量,AI 应用以太网方案趋势明显。国产交换机厂商大多基于以太网协议,随着以太网与IB 网络壁垒打破,国产交换机行业整体迎来发展机遇,国产交换机厂商受益明显。

  根据 IDC 预测,AI 数据中心以太网交换机市场将以 70%的年复合增长率呈指数级增长,将从 2023 年的 6.4 亿美元增长到 2028 年的 90.7亿美元。

  根据 IDC、Gartner、计世资讯的相关统计数据,2020 年-2023 年,公司在中国以太网交换机市场占有率分别为 35.0%、35.2%、33.8%、32.9%,持续保持市场份额第二。具体场景方面, 2023 年公司在中国企业网交换机、数据中心交换机、园区交换机市场,分别以 34.2%、 28.4%、36.8%的市场份额排名第二。根据 IDC 发布的最新数据,2024 年第一季度,公司在中国以太网交换机、企业网交换机、园区交换机市场,分别以 34.8%、36.5%、41.6%的市场份额排名第一,实现了市场地位的提升。

  在高品质网络联接方面,为满足智算需求场景,公司推出了智算网络解决方案,全面增强网络对于多元异构算力的承载能力。同时,推出了基于 DDC 架构(分布式解耦机框)的算力集群核心交换机 H3C S12500 AI 系列,专为 AI 算力场景设计。目前公司 800G 交换机产品也已经开始小规模发货,预计 2025 年依然有较好的上涨空间。在新技术/新方案交换机领域,公司已率先发布了 51.2T 800G CPO 硅光数据中心交换机,适用于 AIGC 集群或数据中心高性能核心交换等业务场景;新华三集团已发布“全光网络 3.0 解决方案”,高速率+CPO+全光方案是公司看点。

  公司自成立以来持续专注于以太网交换芯片的自主研发与设计。公司目前产品主要定位中高端产品线Tbps 交换容量及 100M~400G 的端口速率,全面覆盖企业网络、运营商网络、数据中心网络和工业网络等应用领域。其中,TsingMa.MX 系列交换容量达到 2.4Tbps,支持 400G 端口速率,支持新一代网络通信技术的承载特性和数据中心特性。公司面向大规模数据中心和云服务的高端旗舰芯片产品已于 2023 年给客户送样测试,预计 2024 年实现小批量交付,该产品支持最大端口速率 800G,搭载增强安全互联、增强可视化和可编程等先进特性。

  根据灼识咨询数据,中国商用以太网交换芯片市场以销售额口径统计,博通、美满和瑞昱分别以 61.7%、20.0%和 16.1%的市占率排名前三位,前三名供应商合计占据了 97.8%的,盛科通信以 1.6%的市场份额排名第四,在中国商用以太网交换芯片市场的境内厂商中排名第一,未来在国产替代趋势下份额提升空间广阔。

  公司推出的国产超高密度 400GE/800GE 框式交换机采用自研 7.2T 分布式转发芯片和 112Gb/s 高速总线技术,性能业界领先,单槽支持 14.4T,整机支持 576 个 400GE 或 288 个 800GE 接口;51.2T 盒式交换机支持 128 个 400GE 接口,达到业界一流水平,已在互联网厂商规模商用。2024 年数据中心交换机系列产品保持 GlobalData 国内同产品最高评级 Very Strong,其中 Hardware 单项获 Leader 最高评级。2024 年上半年,公司盒式交换机分别以第一名和第二名中标中国联通和中国电信集采项目;并中标中国移动 2024 - 2025 年数据中心交换机集采项目。根据 IDC 数据,2024 年第一季度,中兴通讯在中国以太网交换机运营商市场收入实现同比增速排名第一。同时,在数据中心交换机运营商市场领域,中兴通讯市场份额跃居第二位。

  在新技术/新方案交换机领域,公司已在 CPO 相关的光引擎和光电封装等技术领域进行部署;同时拥有 ZTE iCampus 行业数智全光方案。高速率+自研交换芯片是公司重要看点。

  锐捷网络:国内交换机市占率名列前茅,高速率交换机供应 Tier1 互联网企业

  公司在交换机领域保持市场前列地位。根据 IDC 数据统计,2024 年第一季度,公司在中国以太网交换机市场占有率排名第三,在中国数据中心交换机市场占有率排名第三。

  2023 年公司推出了 AI-Fabric 和 AI-FlexiForce 智算中心网络解决方案,助力客户构建大规模智算中心网络。2024 年公司进一步创新性地推出了 AILB 负载均衡解决方案。AILB 方案在 16 节点 PerfTest 测试中,带宽利用率高达 97.6%,其快速的 Failover 切换时间,保障训练业务的连续性。该方案支持智算中心多租户部署模式,适用于非 Mellanox系列网卡。目前公司 800G 交换机已实现小规模供货,主要客户为 Tier1 互联网企业。随着 AIGC 技术推动产品更新换代加速,预计从 2025 年开始,800G 交换机将逐步进入批量部署阶段。在新技术/新方案交换机领域,锐捷网络已发布 25.6Tbps CPO 交换机;以太全光网络交换机已大范围的应用于各类园区网建设;已推出多款白盒交换机平台,并且已经在互联网头部公司大规模部署。

  公司主要从事交换机代工业务,2024 年上半年交换机产品约占公司营业收入的 78.16 %。在中高端数据中心交换机产品部分,在 200G/400G/2.0T/8.0T 数据中心交换机基础上迭代了 12.8T 等产品形态,扩展了基于国产 CPU 的 COME 模块;在交换机细分领域,扩展了工业控制和边缘计算场景需求的新一代 TSN 工业交换、Multi-GE(2.5G/5G/10G)电换机及 2.5G 光上行千兆交换机/2.5G 光下行万兆上行全光交换机等。公司与主要客户在中高端交换机方面的项目合作在逐步推进中。公司主要客户为新华三、S 客户、锐捷网络等,三大客户出售的收益合计约占 90%以上。为满足市场需求,公司拓展了网络设备中高端产品线,包括自研了白盒交换机产品,目前正在有序推进相关业务合作。

  公司主营业务为各种光通信器件及其集成功能模块、光传感产品及解决方案。在 CPO 交换机方案中、集线器、分线盒等无源器件使用量大为增加。公司凭借产品质量、交付能力和性价比等优势已成为全世界市场主要供应源,未来份额有望进一步提升;同时公司具备 MT插芯的供应能力,有力地支持了公司 MPO 产品的市场地位。公司采用自产 MT 插芯制造的MPO 连接器已通过国外重大客户的质量认证,并实现批量供应。在 CPO 的光连接方面,除了 MPO 产品,公司的光柔性板、FAU 产品也在配合客户的真实需求开展技术开发和样品试制的工作。

  公司立足光通信领域,长期致力于各类中高速光器件产品的研发、生产、销售和服务。CPO方案是将交换 ASIC 芯片和光引擎在同一高速主板上协同封装。光引擎是公司重要产品,公司曾募集资金建设“面向 5G 及数据中心的高速光引擎建设项目”。目前公司针对硅光技术平台和 CPO 相关配套产品已有多个研发项目正在推进,有望深度受益于 CPO 技术迭代。

  CIOE信息通信展是亚太地区极具影响力的信息通信技术专业展览会,集中展示芯片、材料、器件、模块、设备、方案等全产业链的新产品技术和市场新趋势,并重点展示半导体材料与设备,全方位服务于电信、数据中心、新兴市场,着力为通信芯片商、器件商、设备商、工程商、运营商、互联网等企业搭建集品牌展示、商贸对接、资源整合及市场开拓为一体的专业交流平台。返回搜狐,查看更加多