12月13日,“2026中国信通院深度观察报告会”在北京举办。中国信息通信研究院副总工程师许志远针对具身智能发表了自身观点和见解。

在他看来,当前具身智能已经取得认知智能与物理智能的双线突破,但模型路线、数据范式以及最佳机器人形态仍未定型,大规模落地仍处于早期阶段,其未来方向仍在持续竞争与快速演化中。
具身智能取得阶段性突破
仍需关注三大核心焦点问题
许志远详细介绍了具身智能当前实际进展及需要重点关注的内容。他表示,当前具身智能的确取得了阶段性突破。一方面,机器人的“认知智能”实现明显跃升(即“大脑”能力),大模型使机器人能够完成传统机器人难以处理的复杂任务,具备“可感知、可思考、可交互”的智能特征。另一方面,“物理智能”加速突破:基于强化学习,人形机器人在复杂地形行走、高难度舞蹈等动态任务上表现显著提升;基于模仿学习与大模型范式,上肢操作能力快速增强,已能执行切黄瓜、倒水、叠衣服等精细操作。
“然而,尽管技术突破不断,具身智能的大规模落地仍处于早期阶段”, 许志远指出:“当前行业仍面临三个核心焦点问题。”
具体而言,一是模型路线之争:大模型范式是否适用于机器人?虽然大模型在语言、图像、视频领域取得巨大成功,但“同样的范式能否直接迁移到机器人控制”仍未被证明。业界正在探索多种途径。
二是数据训练范式之争:哪类数据才是机器人智能提升的关键?数据仍然是限制机器人能力跃升的核心瓶颈。目前机器人模型主要依赖三类数据:真机数据:质量最高但采集昂贵、规模有限;合成/仿真数据:规模大、成本低,但逼真度与物理一致性有差距;人类第一视角视频数据:自然、丰富,但动作标注与映射存在挑战。当前尚无结论表明机器人领域是否会像 NLP、CV 一样遵循 Scaling Law——即“更多数据一定带来更强能力”。因此,数据范式仍在快速演化,混合数据、多模态数据、世界模型生成数据等方向均在探索中。
三是形态路线之争:人形机器人是否是“真需求”?具身智能的落地呈现出两大派系:① 人形坚守派(Tesla、Figure AI 等),这些企业坚持全人形路线,原因包括:人形最契合人类社会现有环境与工具体系;人形形态最利于学习人类动作、利用人类数据;长期看具备最大通用性。特斯拉和 Figure AI 因此持续投入大量资源,力图构建“通用劳动机器人”。② 折中派(大量国内企业)。国内今年涌现出多款“轮-臂式复合机器人”,其特点是:轮式底盘更可靠、成本更低、部署更简单;动作可控性强,更适合集成到商业场景快速落地。这种路径更强调“工程可落地性”,旨在在短期内形成可规模化的商业应用。
在 VLA 基础上引入世界模型
有望成为提升机器人大模型能力的重要路径
据许志远介绍,目前,利用大模型提升机器人的泛化能力已成为业界共识,但如何有效地将大模型应用于机器人系统,仍存在多条技术路径,行业也在持续探索中。
第一条路径是采用大语言模型(LLM)对人类指令进行语义理解与任务分解,这是赋予机器人高层智能的关键能力,谷歌的 SayCan 是早期代表性工作。第二条路径是在 LLM 的基础上引入视觉,使模型具备语言与视觉跨模态融合能力,通过视觉语言模型(VLM)进行机器人控制。借助视觉信息,模型不仅能分析环境的空间关系和物体属性,也能更好支撑高层任务规划。谷歌的 PaLM-E 展示了跨模态推理在机器人控制中的潜力。第三条路径是在 VLM 的基础上进一步加入动作生成能力,形成视觉-语言-动作模型(VLA)。这类模型以视觉图像和语言指令为输入,直接输出机器人控制指令。VLA 路线自 2024 年底以来受到高度关注。各家厂商在模型架构、模块设计和动作生成方式上不断优化,例如美国的 Figure AI、PI,以及国内的智元、银河通用等均聚焦于这一方向。
许志远强调,目前,许多 VLA 模型采用 MoE 架构,以 VLM 作为骨干网络,动作层常使用自回归预测、扩散模型或流匹配等生成方式。同时,在 VLM 与动作预测之间通常加入隐向量用于信息传递,以兼顾复杂任务推理与实时控制需求。VLA 在复杂、多步骤、多样化任务上展示出一定适应性。“然而,我们也观察到,尽管 VLA 在结构上不断演进,其实际落地效果仍未达到预期。原因在于物理世界具有高度多样性与不确定性,而当前可获取的机器人数据量级有限、覆盖场景不足,使得 VLA 难以充分学习并泛化到真实环境中。”
展望未来,在 VLA 的基础上引入 世界模型(World Model),借助其对物理世界的理解、预测与推演能力,有望成为进一步提升机器人大模型能力的重要发展路径。
重视利用合成数据和视频数据
满足机器人模型训练需求
“机器人的真机数据虽然质量最高,但人工采集的成本极高,高质量样本更是稀缺,远远无法满足模型的训练需求。因此,业界开始越来越重视合成数据和视频数据的利用。” 许志远指出。
一方面,业界开始采用混合数据训练模式:先利用合成数据或视频数据进行模型预训练,再用真机数据进行微调。例如,银河通用使用 10 亿帧合成数据完成抓取模型的预训练;英伟达 GROOT N1 模型中,合成、视频和真机数据分别占 25%、31% 和 44%。“我们发现,主流方案的非真机数据占比通常在80%~99%,但是哪个比例对于机器人性能提升更加有效仍需产业界来不断试错验证。”
另一方面,今年以来,使用人类第一视角拍摄的视频数据成为破解数据瓶颈的一类重要方案。具体做法是让操作员佩戴头戴式摄像设备,在不影响日常工作的前提下记录其操作过程,为模型训练提供高质量的人类示范数据。6 月份有消息称,马斯克将延续自动驾驶“全视频学习”的路线,未来的训练将主要依赖来自人类第一视角的视频数据。Figure AI也在9月份发布了Go-Big项目,目标就是构建全球最大、最多样化的视频预训练数据集。国内清华大学、地平线、智元机器人等也在做相关路线的探索。 






































