
截至 2025 年 12 月 16 日,沪深 300 指数年涨幅 14.3%,深证成指年涨幅 24.0%,上证指 数年涨幅 14.1%,通信(申万)指数年涨幅 73.0%,通信板块整体跑赢大盘。在申万行业 分类 31 个行业板块中,通信板块年涨幅在申万一级行业中排名第 2。
根据我们梳理的西部通信股票池(包含 258 只股票),剔除三大运营商后,2014 年初以来 通信板块 PE(TTM,整体法,剔除负值)最高值为 110.6 倍,最低值为 22.7 倍,中值为 37.4 倍;PB(整体法,MRQ,剔除负值)最高值为 9.4 倍,最低值为 2.3 倍,中值为 3.8 倍。2025 年以来,通信板块受数字经济和 AI 催化,估值整体呈上升趋势。截至 2025 年 12 月 16 日,根据我们梳理的西部通信股票池(包含 258 只股票),剔除三大运营商后, 行业 PE(TTM,整体法,剔除负值)为 51.7 倍;PB(整体法,MRQ,剔除负值)为 6.2 倍。 近一年多来,该板块估值从 2024 年初开始震荡调整,2024 年 2 月 8 日至 3 月 22 日开启 一波上涨行情,之后进入区间波动状态整体相对稳定,2024 年 7 月中旬后估值再度回落, 2024 年下半年 9 月 24 日后估值加速上涨,2025 年 2-4 月受中美关税战及 AI 板块情绪回 落等因素影响,估值有所回落,4 月初中美关税事件落地后开始持续回升并维持在高位水 平。
1.2 分板块行情:光器件光模块、光纤光缆、通信元器件和温控设备涨幅居前
通信行业深度参与数字中国的数字底座建设,在算力、网络基础设施建设和数据资源体系 建设中都扮演重要角色。通信行业的传统驱动力主要来自运营商和云厂商的资本开支投资, 伴随数字基础设施的完善和下游新兴应用的兴起,通信行业需求驱动力逐步转向商业、工 业、政府、军工等垂直领域;同时通信技九游娱乐入口官网术与人工智能、云计算、大数据等新技术相融合 赋能于各行各业,衍生出越来越多新兴产业数字化成长赛道,包括物联网、工业互联网、 军工通信、企业通信、通信+汽车、通信+新能源、卫星应用等。在 AI 浪潮之下,AI 能力 向各行各业渗透,百废待兴,“AI+”的变革仍在持续进行中。立足当下展望,通信行业需 求端迎来三大增量变化,受数字中国建设、AIGC 和出海的同步拉动,供给端受产业升级 和大国博弈共振,呈现技术升级和国产替代两大趋势。
截至 2025 年 12 月 16 日,我们构建的西部通信股票池中 258 家公司整体年涨幅(算术平 均)为 51.1%,其中,涨幅居前的细分板块包括光器件光模块、光纤光缆、通信元器件和 温控设备,板块涨幅均在 80%以上,剩余其他细分板块除电力载波通信、通信终端设备和运营商之外均呈现不同程度的涨幅。 根据西部通信股票池,截至 2025 年 12 月 16 日,涨幅居前五的个股分别是胜宏科技 (+584.9%)、仕佳光子(+484.0%)、新易盛(395.23%)、中际旭创(+349.0%)和源 杰科技(+348.0%)。
回顾 2025 年的结构性变化演绎,基本符合西部通信团队发布的《2025 年通信行业投资策 略》中的核心方向性判断:1)变化一:大模型突破“慢思考”能力,预训练之外,后训 练和推理算力需求增加。2)变化二:伴随应用逐步繁荣,多样化推理需求增加,边缘计 算和云计算的协同共生是大势所趋。3)变化三:英伟达通用 GPU 之外,ASIC AI 芯片供 给增加。 2026 年 AI 迈入新发展阶段。AI 大模型能力持续进化,AI 应用持续渗透,AI 算力投入持 续高景气,关于 CAPEX 和行业短期回报之间的剪刀差的讨论较多,AI 算力产业链多个环 节呈现供不应求的紧张态势。整体来看,AI 算力的投入短期仍处于高成长期,应用的商业 闭环变现路径仍在探索和培育中。
训练算力 vs 推理算力:算力需求结构从训练端向推理端加速迁移。 训练集群向 10 万卡以上规模继续扩展,推理算力需求持续高速增长,推理算力结构占比 持续提升。当万卡集群成为大模型竞赛的 “入场券”,十万卡集群正成为科技巨头竞逐的 新高地,比如 xAI 的 Colossus 集群在 122 天内建成 10 万张 H100 GPU 集群,腾讯 基于星脉网络支持 10 万卡 GPU 计算规模,阿里云灵骏集群拓展至十万卡级别。2025 年年初 Deepseek-V3 的低成本训练推动了推理芯片和推理算力市场的发展,带动市场的关注点从算力规模的扩展进而转向 AI 在特定业务场景下的实际应用表现。
训练和推理需求推动 AI 算力总量有望持续提升,空间足够大。AI 大模型让自然语言成为 有效的人机交互范式,并在知识归纳和处理以及 AIGC 领域呈现出较大的商用价值和社会 价值。训练端,在生成式 AI 技术快速发展和 Scaling Law 奏效背景下,随着大模型参数 量提升,大模型训练需要大量 AI 算力支撑;推理端,伴随模型的成熟和应用的落地,算 力需求的重心向推理转移,未来推理成本的降低有望进一步吸引开发者加入促进生态的繁 荣,继续促进大模型推理侧的算力需求。
训练和推理对算力和显存的需求逻辑不同,通信效率核心服务于整体算力效率的发挥,交 互式人工智能分阶段对数据通信网络产生不同影响。算力的提升从简单的硬件扩展发展为 涵盖算法优化、系统设计、资源调度和网络通信等多个层面的系统优化,数据通信网络是 算力提升的重要支撑。 在 AI 大模型训练阶段,包括前向传播过程和反向传播过程,网络流量主要分为两类:1) GPU 之间同步梯度和中间激活的网络流量,发生于所有 GPU 之间,主要因为当模型的参 数规模超过单个 GPU 的内存,采用 GPU 九游娱乐入口官网集群协同计算时,需要 GPU 之间相互通信以交 换信息,这类信息包括参数/梯度、中间激活值等;2)GPU 和存储服务器之间的流量,主 要因为当庞大的数据集被所有 GPU 共享时需要集中存放到远端的存储服务器中通过网络 调用,以及定期保存的参数和优化器状态也需要通过存储服务器共享。在大模型训练阶段, 计算需求与模型参数量和数据量直接相关,显存需求与模型参数、模型梯度和优化器有关。 例如,以 175B 模型为例,以 FP16 精度计算,模型参数需要 350GB 显存,模型梯度需 要 350GB 显存,优化器需要 2100GB 显存,合计约 2800GB 的显存规模,超出单卡显存 极限,硬件集群分布式训练是必然选择。
在 AI 大模型推理阶段,只有前向传播过程,网络流量主要分别两类:1)每次推理在 Prefill (预填充)GPU 和 Decode(解码) GPU 之间传递 KV 缓存,因为预填充阶段和解码阶段对 GPU 需求不同,可以用 Prefill-Decode 解耦的方式,由两个不同类型的 GPU 分别承 担两个阶段的计算任务,因此就需要在两个阶段间传输 KV 缓存;2)Prefill GPU 集群和 Decode GPU 集群分别实施张量并行,产生的中间激活的传递,因为大模型推理时虽然模 型经过了压缩,但模型尺寸仍可能超过单个 GPU 的内存,因此需要张量并行加速推理过 程。在大模型推理阶段,推理计算需求与模型参数量和数据量直接相关,相较训练阶段不 需要反向计算过程,计算需求比训练阶段少。推理显存需求主要受模型参数量大小和推理 过程中的 KV 缓存影响。推理过程中需要频繁访问显存,通信带宽规格是影响推理速度的 核心因素。在推理时可以选择多卡推理,做张量并行切分时,训练卡可以用于推理业务。
Capex 投资方结构:头部云厂格局稳定,二线云厂加入。 大模型公司是 AI 算力的核心消耗方。随着大模型新版本迭代,大模型格局在过去一年持 续演变。ChatGPT 的领先地位仍较为显著,但其份额在持续下滑,主要由于竞争对手 Grok、 DeepSeek、Claude、Gemini 等持续迭代,加剧市场竞争;用户需求逐步从“通用聊天” 向“专业场景”迁移,如搜索、写作、低成本 API、多模态能力等;开发者群体出现迁移, DeepSeek(低价 API)和部分开源模型让部分开发者逐渐分流。Gemini 份额增长亮眼, 得益于 Nano Banana 的出圈以及 Gemini3.0 的万众期待。
AI 云厂商是 AI 掘金浪潮中的“卖水人”。全球 AI 云厂商格局呈现出头部云厂占主导,二 线新云厂加入的局面,北美 AI 投资呈现加速态势。AI CAPEX 的主要投资方以头部 CSP 厂商为主,美国加密矿企纷纷转型加入云厂商阵营。2025Q3 北美五大 CSP 厂商的 capex 合计为 1209.7 亿美元,同比增长 83.6%,同比增速呈现加速态势。
根据 Gartner 的魔力象限,达标的大模型开发平台必须具备六大硬件条件,即对话助手、 智能体调用、多模态功能、支持代码框架、自带基础模型、防护栏。Google、Amazon、 Microsoft 三大云厂商位居“领导者”象限,中国云厂商火山引擎、阿里云、腾讯云位居 “挑战者”象限,美国多家挖矿企业转型 AI 算力云赛道,CoreWeave 是代表型厂商,位 居“细分者”象限。OpenAI 在基础模型和消费级应用等领域的能力行业领先,但在 AI 云领域目前进展居后,位于“远见者”象限。
算力网络架构:scale out 之外,scale up 和 scale across 带来增量。 Scale up 和 Scale across 是 Scale out 之外的增量场景,有助于在同等芯片数量规模的 算力集群中,增加网络连接层数和价值量,提升光模块与 GPU 芯片的数量配比关系和价 值量配比关系。其背后的核心逻辑在于单颗芯片晶体管扩充的迭代难度逐步提升后,算力 集群的拓宽会更依赖于卡间互联能力和规模的增强。 Scale up 新场景的核心驱动主要来自超大规模 AI 模型需要大量的内存资源,而单张 GPU 难以提供足够的计算能力和内存资源,因此 AI 算力集群需要利用 Scale up 网络连接多张 GPU 形成一个巨大的计算单元,允许该计算单元中的各个 GPU 直接访问其他 GPU 的存 储器,形成一个虚拟的大内存池来供模型使用。内存的互访对延迟要求极高,内存访问时 延一般需要低于 100ns,这对于 Scale-up 中的网络设备和协议提出了极高要求,NVL72 方案中采用铜缆直连来降低时延,后续当算力卡数量进一步增加,则需要高速光连接来解 决大规模超节点内部的远距离互联问题。 Scale aross 新场景的核心驱动主要来自分布式数据中心训练需求的崛起,其背后原因主 要是单一数据中心扩展到一定规模后,受限于能源供给局限或土地、环境的局限,远距离 的跨区域数据中心并行训练成为解决路径之一。伴随相干技术和交换、传输网络的技术升 级,NVIDIA 在 2025 年中提出 scale across 的解决方案,说明了分布式数据中心训练需 求的迫切性以及技术的可行性。海外 DCI 市场光通信解决方案龙头公司 Ciena 也在财报 中披露其交付落地 scale across 项目的实践。