• 最近访问:
发表于 2026-01-30 12:52:39 股吧网页版
继“三连发”后 蚂蚁灵波开源具身世界模型LingBot-VA
来源:证券时报网 作者:聂英好

  1月30日,继空间感知模型、具身大模型与世界模型“三连发”后,蚂蚁灵波科技宣布开源具身世界模型LingBot-VA。LingBot-VA首次提出自回归视频-动作世界建模框架,将大规模视频生成模型与机器人控制深度融合,模型在生成“下一步世界状态”的同时,直接推演并输出对应的动作序列,使机器人能够像人一样“边推演、边行动”。

  在真机评测中,LingBot-VA展现出对复杂物理交互的强适应能力。面对长时序任务(制作早餐、拾取螺丝)、高精度任务(插入试管、拆快递)以及柔性与关节物体操控(叠衣物、叠裤子)这三大类六项高难度挑战,仅需30—50条真机演示数据即可完成适配,且任务成功率相较业界强基线Pi0.5平均提升20%。

  在仿真评测中,LingBot-VA在高难度双臂协同操作基准RoboTwin2.0上首次将成功率提升至超过90%,在长时序终身学习基准LIBERO上达到98.5%平均成功率,均刷新了行业纪录。

  据悉,LingBot-VA采用Mixture-of-Transformers(MoT)架构,让视频处理与动作控制实现跨模态融合。通过独特的闭环推演机制,模型在每一步生成时都会纳入真实世界的实时反馈,确保持续生成的画面与动作不偏离物理现实,从而控制机器人完成高难度复杂任务。

  为突破大规模视频世界模型在机器人端侧落地的计算瓶颈,LingBot-VA设计了异步推理管线,将动作预测与电机执行并行化处理;同时引入基于记忆缓存的持久化机制与噪声历史增强策略,让推理时只需更少生成步骤即可输出稳定、精确的动作指令。这一系列优化使得LingBot-VA既拥有大模型的理解深度,又具备真机低延迟控制的响应速度。

  蚂蚁灵波表示,承接前几日开源发布的LingBot-World(模拟环境)、LingBot-VLA(智能基座)与LingBot-Depth(空间感知),LingBot-VA探索出一条“世界模型赋能具身操作”的全新路径。蚂蚁集团将持续依托InclusionAI社区开源开放,与行业共建具身智能基础能力,加速构建深度融合开源开放且服务于真实产业场景的AGI生态。

  目前,LingBot-VA的模型权重、推理代码已全面开源。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500