东吴证券:离真正的具身智能大模型还有多远?

时间: 2025-08-12 07:20:30   来源:     浏览:532次

XM外汇官网APP获悉,东吴大模东吴证券在其研究报告中指出,证券正的智未来具身大模型将在模态扩展、具身推理机制和数据构成方面不断演进。型还目前的有多远主流模型主要集中在视觉、语言和动作三种模态,东吴大模未来有望引入触觉、证券正的智温度等感知通道。具身同时,型还像Cosmos这样的有多远架构正尝试通过状态预测为机器人赋予“想象力”,以实现感知、东吴大模建模和决策的证券正的智闭环,从而建立更真实的具身“世界模型”,增强机器人在环境中的型还建模与推理能力。在数据方面,有多远仿真与真实数据的融合训练正成为主流,建设高标准、可扩展的训练场所已成为通用机器人训练体系的重要支撑。

东吴证券的具体观点如下:

东吴证券:离真正的具身智能大模型还有多远?

为什么人形机器人需要高智能大模型?

东吴证券:离真正的具身智能大模型还有多远?

尽管人形机器人的结构已经实现工程可行,但其真正的产业化落地仍依赖于突破传统工业机器人“控制刚性、适应性差”的局限,增强对不确定性的理解与适应能力。工业机器人主要依赖确定性控制逻辑,缺乏感知、决策和反馈能力,因此运行成本高且通用性差。相比之下,人形机器人以“通用智能体”为目标,强调感知、推理和执行的完整链条,需要依托大模型支撑的多模态理解和泛化能力,以适应复杂任务和动态环境。目前,多模态大模型的兴起为人形机器人提供了“初级大脑”,促使智能化从0到1的进化,并通过数据积累持续提升模型能力与产品性能。然而,整体智能化仍处于L2初级阶段,朝向泛化智能的道路面临建模方法、数据规模和训练范式等诸多挑战,高智能大模型将是实现通用人形机器人的关键变量。

东吴证券:离真正的具身智能大模型还有多远?

从架构和数据两方面来看,目前机器人大模型的进展如何?

当前机器人大模型的快速进展得益于架构与数据的协同突破。在架构方面,从早期的SayCan语言计划模型到RT-1的端到端动作输出,再到PaLM-E和RT2将多模态感知能力整合至统一模型,大模型已具备“看图识意、理解任务、生成动作”的完整链条。到2024年,π0将引入动作专家模型,动作输出频率达到50Hz;到2025年,Helix将实现快慢脑并行,控制频率突破至200Hz,从而显著提升机器人的操作流畅性及响应速度。在数据方面,已形成包括互联网、仿真与真实动作数据的协同支持结构,其中前两类数据为预训练提供了量级与应用场景,后者则直接提升模型在物理世界的实用能力。当前,真机数据采集对高精度动捕设备的依赖度较高,光学动捕凭借其精准优势将适应集中式训练场,有望成为具身模型训练的核心数据来源。主流训练范式正从“低质预训练+高质后调优”快速转向“从数据积累到结构优化”的阶段。

未来大模型的发展方向是什么?

展望未来,具身大模型将在模态扩展、推理机制与数据构成三方面持续发展。目前的主流模型多集中在视觉、语言和动作模态,未来可能引入触觉、温度等感知渠道。Cosmos等架构正在尝试通过状态预测赋予机器人“想象力”,以实现感知、建模与决策的闭环,建立更真实的“世界模型”,进一步提升机器人在环境建模与推理上的能力。在数据方面,融合训练仿真与真实数据已成为主流,高标准、可扩展的训练设施正在成为通用机器人训练体系的关键支撑。

投资建议

在模型方面建议关注【银河通用(一级公司)】、【星动纪元(一级公司)】、【智元机器人(一级公司)】;在数据采集领域建议关注【青瞳视觉(一级公司)】、【凌云光(688400.SH)】、【奥比中光(688322.SH)】;在数据训练场方面建议关注【天奇股份(002009.SZ)】。

风险提示

大模型技术的进展可能不及预期,高质量数据的获取受限,人形机器人市场需求可能低于预期。