
随着大模型竞赛进入推理阶段,各类推理大模型工具、AI助手、多模态内容理解与生成、视频生成等应用层出不穷。这一阶段对AI基础设施的需求正从训练时期的“极致算力规模”转向更注重单域算力密度、低时延通信、灵活的算力与缓存配比以及更高的性价比。受限于单一计算或缓存芯片的物理性能瓶颈,超节点(SuperNode)架构应运而生。超节点通过在物理或逻辑层面整合多个AI加速单元、高速缓存与互连网络,形成高内聚、低耦合的算力单元,既能支持大规模分布式训练,又能高效应对高并发、低延迟的推理任务。为实现资源的弹性调度与极致能效,超节点内部的ScaleUp互连、超节点之间的ScaleOut网络,以及跨数据中心的DCN互联,共同构成了新一代AI基础设施的核心骨架。
光互连技术是否及何时介入ScaleUp场景成为产业焦点。相较于传统电互连,光互连在带宽密度、功耗效率和传输距离方面具备显著优势,但其在封装集成度、成本控制、热管理及系统兼容性等方面仍面临挑战。当前产业界亟需就光互连在超节点架构中的技术路径选择、产品形态定义、成熟度评估与商用引入节奏达成共识。
本议题将深入探讨AI驱动下超节点互连架构的演进趋势,聚焦光互连在高性能AI集群中的可行性与落地路径,推动“以网强算、以光赋智”理念在算力基础设施中的实践落地。

Copyright©1999-2026 C114 All Rights Reserved | 沪ICP备12002291号