游戏百科

具身智能的大规模落地仍处于早期阶段

飞象网讯(喜乐)近两年,具身智能无疑是最热门的赛道之一。据中国信息通信研究院副总工程师许志远介绍,当前,具身智能已经取得认知智能与物理智能的双线突破,但模型路线、数据范式以及最佳机器人形态仍未定型,大规模落地仍处于早期阶段,其未来方向仍在持续竞争与快速演化中。

一方面,机器人的“认知智能”实现明显跃升(即“大脑”能力),大模型使机器人能够完成传统机器人难以处理的复杂任务,具备“可感知、可思考、可交互”的智能特征。另一方面,“物理智能”加速突破:基于强化学习,人形机器人在复杂地形行走、高难度舞蹈等动态任务上表现显著提升;基于模仿学习与大模型范式,上肢操作能力快速增强,已能执行切黄瓜、倒水、叠衣服等精细操作。

尽管技术突破不断,具身智能的大规模落地仍处于早期阶段。当前行业仍面临三个核心焦点问题。一是模型路线之争;二是数据训练范式之争;三是形态路线之争。

与此同时,许志远指出,目前,利用大模型提升机器人的泛化能力已成为业界共识,但如何有效地将大模型应用于机器人系统,仍存在多条技术路径,行业也在持续探索中。

第一条路径是采用大语言模型(llm)对人类指令进行语义理解与任务分解,这是赋予机器人高层智能的关键能力,谷歌的saycan是早期代表性工作。

第二条路径是在llm的基础上引入视觉,使模型具备语言与视觉跨模态融合能力,通过视觉语言模型(vlm)进行机器人控制。借助视觉信息,模型不仅能分析环境的空间关系和物体属性,也能更好支撑高层任务规划。谷歌的palm-e展示了跨模态推理在机器人控制中的潜力。

第三条路径是在vlm的基础上进一步加入动作生成能力,形成视觉-语言-动作模型(vla)。这类模型以视觉图像和语言指令为输入,直接输出机器人控制指令。vla路线自2024年底以来受到高度关注。各家厂商在模型架构、模块设计和动作生成方式上不断优化,例如美国的figureai、pi,以及国内的智元、银河通用等均聚焦于这一方向。

许志远强调,目前,许多vla模型采用moe架构,以vlm作为骨干网络,动作层常使用自回归预测、扩散模型或流匹配等生成方式。同时,在vlm与动作预测之间通常加入隐向量用于信息传递,以兼顾复杂任务推理与实时控制需求。vla在复杂、多步骤、多样化任务上展示出一定适应性。“然而,我们也观察到,尽管vla在结构上不断演进,其实际落地效果仍未达到预期。原因在于物理世界具有高度多样性与不确定性,而当前可获取的机器人数据量级有限、覆盖场景不足,使得vla难以充分学习并泛化到真实环境中。”

展望未来,在vla的基础上引入世界模型(worldmodel),借助其对物理世界的理解、预测与推演能力,有望成为进一步提升机器人大模型能力的重要发展路径。