家用机器人要成精了机器人更像人了
一句:“去厨房看看冰箱里还有没有牛奶。”机器人就能听懂、避障、开门、还回你一句:“还有半瓶。”这是VLN-R1正在做的事。
VLN-R1是港大与上海AI Lab联合提出的新一代视觉语言导航系统,它能在第一人称视角下,基于自然语言指令完成连续动作,不再依赖“地图导航”,让机器人行动更像人。
其关键点在于——让大模型直接输出动作指令(比如前进、转弯),而不是“先理解语言、再查图、再选动作”这一传统套路。为此,研究者设计了两阶段训练:先学专家演示的标准动作,再用强化学习机制学会自主决策。