移动平台
`
2026/1/22 14:47

中山大学李凡:简化相干光通信技术破解AI超节点跨域互连三大瓶颈

0
0

C114讯 1月22日消息(苡臻)近日,CIOE中国光博会联合C114举办的“2026中国光通信高质量发展论坛”第一场——“AI超节点互连架构演进”线上研讨会成功召开。会议深入探讨光互连在高性能AI集群中的可行性与落地路径,推动“以网强算、以光赋智”理念在算力基础设施中的实践落地。

期间,中山大学通信工程教研室主任、教授、博士生导师李凡发表题为“面向AI超节点互连的简化相干光通信技术及系统架构”的主题演讲。他表示,算力需求在大模型的推动下,呈现爆发式的增长,增速远超摩尔定律,大规模可持续增长的算力已成为制约AI发展的核心瓶颈,是当前科技竞争的焦点。

为了应对不断增长的算力需求,数据中心等算力设施经历了“纵向扩展(Scale-Up)-横向扩展(Scale-Out)-跨域扩展(Scale-Across)”三次演化。纵向扩展提升单机柜算力性能,算力规模达数百PFlops;横向扩展增加单数据中心算力性能,算力规模达数十EFlops;跨域扩展跨地域多数据中心算力资源池化,算力规模可达算力工厂级别。对比来看,下一代算力节点的增长必然将通过跨域扩展来实现,而在其中光通信光互连的重要性不言而喻。

跨域扩展是通过高速光网络连接地理分散的数据中心,形成统一的巨大算力资源池。而多个数据中心的联动需要依赖于低时延的传输技术,如空心光纤传输技术、高速的相干光通信技术来实现高效的多数据中心互连。

光互连是AI超节点的“智能动脉”

李凡指出,数据互连可以通过电互连和光互连两种方式实现。电互连技术非常成熟,但是其传输带宽有限,功耗密度过高,并且长距离传输时延大;而光互连可以实现海量的数据传输,且满足低时延、低功耗特性,满足未来数据中心的发展需求。

为了满足高速互连的数据传输,数据中心已经形成了完整的“光动脉系统”,在芯片级发展出光的OIO (Optical I/O),光电单片集成,实现纳秒级超低延迟;封装级出现了光电共封装的机制,避免了PCB中长的走线;模块中出现了LPO (Linear Pluggable Optics),线性驱动可插拔光模块,简化设计,替代同轴电缆,主要应用于Scale-Up和Scale-Out(部分);而在数据中心级,需要依赖相干光模块,实现长距离、大容量的无间断传输,主要用于Scale-Out(部分)和Scale-Across。

为了支撑数据中心算力的持续增长,服务器中核心交换机光模块接口速率从40G逐渐演变到下一代1.6T,因此光通信传输技术也需要不停更新迭代。

在光互连中最早关注的技术是IM-DD和相干,早期的光互连都通过IM-DD的技术路径来实现,主要是因为其功耗和成本优势非常明显,但在下一代1.6T光互连中,IM/DD受限于色散容限,甚至无法满足两公里的传输距离要求,显然无法应用于多个数据中心之间互连的Scale-Across需求。

而随着传输距离的提升,相干技术可以通过技术路线简化的方式,有望逼近IM-DD单位比特能耗开销。因此,对于相干光模块应用于光互连的关键在于如何降低成本和功耗。

简化相干光互连技术及系统架构

李凡表示,将相干光通信技术应用于 AI 集群跨域互连(Scale-Across),需突破成本、功耗、时延三大核心瓶颈。接下来,他提出了优化的方向和手段:

成本上,需优化激光器,寻找昂贵的ECL激光器的替代品。通过温度、电流等调控的方式,可以构造稳频激光器,甚至可通过电流调控的方式进一步去压缩线宽,满足相干传输要求。例如,温度调控锁频 DFB 激光器可实现±2.5MHz 锁频误差,电流调控薄膜铌酸锂调频激光器更可降至±1.8MHz。

功耗上,主要通过降低 AD/DA 采样率以逼近单倍波特率采样架构,目前在Xilinx FPGA上已验证超 100 Gbit/s(净速率)低复杂度时钟提取及均衡简化相干光互连。

时延上,采用单波长大波特率空心光纤传输技术,可降低约1/3 传输时延。这三项技术的突破将有望推动AI跨集群互连的应用。

免责声明:本文仅代表作者个人观点,与C114通信网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

给作者点赞
0 VS 0
写得不太好

C114简介     联系我们     网站地图

Copyright©1999-2025 c114 All Rights Reserved 沪ICP备12002291号-4

C114通信网版权所有 举报电话:021-54451141 用户注销