近期,北京大学与BeingBeyond的联合研究团队推出了一项创新性框架DemoHLM,为人形机器人的移动操作领域带来了全新解决方案。该框架仅需在仿真环境中采集一次人类示范,即可自动化生成大规模训练数据,赋能真实人形机器人在多样化任务场景中实现泛化操作,从而有效应对了传统方案中硬编码依赖性强、真实数据采集成本高昂以及跨场景适应能力薄弱等核心挑战。
移动操作能力是人形机器人融入人类生活与工作环境的关键(例如搬运物品、开启门扉、传递物件等),但长期以来受限于三大瓶颈:
现有解决方案要么局限于仿真环境验证,要么需要消耗数百小时的真实遥操作数据进行训练,难以满足家庭、工业等复杂现实场景的实用化需求。
DemoHLM框架的核心创新在于“分层控制”与“单演示数据生成”双引擎驱动,在保障全身运动稳定性的同时,实现了极低数据成本下的泛化学习能力。
DemoHLM采用“低层全身控制器+高层操作策略”的分层设计,巧妙解耦了“基础运动控制”与“高级任务决策”:
此外,研究团队为机器人配备了2自由度主动颈部关节与RGBD相机(Intel RealSense D435),通过比例控制器实现“视觉追踪稳定”,模拟人类在操作过程中主动调节视线的能力,有效避免了因物体遮挡导致的感知失效问题。
DemoHLM最关键的突破在于无需真实世界数据采集,仅利用一次仿真环境中的遥操作演示即可生成海量多样化的训练数据,其核心流程分为三步:
预操作阶段:采用“物体中心坐标系”,确保机器人在不同的物体初始位姿下,末端执行器都能精确对齐操作目标;
操作阶段:切换为“本体感知坐标系”,解决了在抓取或搬运过程中末端执行器与物体需保持相对静止的轨迹生成难题;
此过程完全自动化,绕过了传统模仿学习中繁重的“数据采集地狱”,同时通过随机化初始条件,天然增强了学习策略对于不同场景的泛化能力。
研究团队在仿真环境(IsaacGym)与真实世界的Unitree G1机器人平台上,针对搬箱子、开门、倒水、递物等10项移动操作任务进行了全面验证,核心结果如下:
在经过改装(加装3D打印夹爪、2自由度颈部及单目RGBD相机)的真实Unitree G1机器人上,DemoHLM实现了零样本迁移,在10项任务中:
取得上述成果的关键在于:高层策略通过视觉闭环实时调整发送给低层的指令,有效抵消了仿真与真实世界之间的物理差异(如关节跟踪误差),确保了操作行为的一致性。
DemoHLM的突破为人形机器人的实用化部署提供了关键的技术支撑:
团队也指出了当前框架的局限:长期依赖仿真数据可能存在累积的Sim-to-Real偏差;单RGB-D相机在极端遮挡场景下性能可能受限;且目前暂未支持对训练数据中未出现过的物体进行操作。未来研究方向包括探索“仿真与真实数据混合训练”、“多模态感知融合”等,以进一步提升系统的鲁棒性与通用性。
DemoHLM框架以“单次仿真演示驱动泛化移动操作”为核心理念,通过创新的分层控制架构与高效的数据生成流水线,成功破解了人形机器人训练成本高、任务泛化差、仿真到现实迁移难三大痛点。
其在Unitree G1真实机器人上的成功验证,彰显了该框架的实用价值与潜力,为下一代人形机器人在家庭、工业及服务场景的规模化应用开辟了一条重要的技术路径。
https://arxiv.org/pdf/2510.11258
https://beingbeyond.github.io/DemoHLM/
本文由主机测评网于2026-01-23发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260119987.html