• 最近访问:
发表于 2025-12-21 13:34:10 股吧网页版
北京人形开源首个通过具身智能国标测试的具身大模型XR-1
来源:新京报 作者:韦博雅

  新京报贝壳财经讯(记者韦博雅)12 月 18 日,北京人形机器人创新中心正式开源国内首个且唯一通过具身智能国标测试的具身VLA大模型 XR-1,以及配套的数据基础RoboMIND 2.0、ArtVIP 最新版。基于上述开源成果,能够推动具身智能行业追寻最本质需求,让机器人真正在各类应用场景下能干活并且会干活,推动国内具身智能行业迈向“全自主、更好用”的新阶段。

  本次开源的系列内容,是面向具身小脑能力的VLA模型XR-1,以及为XR-1等模型提供数据训练支持的RoboMIND 2.0和ArtVIP。

  北京人形介绍,跨本体VLA模型 XR-1具备多场景、多本体、多任务特性,并且还拥有高泛化性等优势特点。背后的技术原理在于,XR-1具备跨数据源学习、跨模态对齐、跨本体控制三大核心支柱能力。首先,通过跨数据源学习让机器人能够利用海量人类视频进行训练,降低训练成本提升训练效率;其次,依靠跨模态对齐能够打破视觉和动作的隔阂,让机器人做到真正的知行合一;最后,借助跨本体控制可以让XR-1快速匹配不同类型、不同品牌的机器人本体。

  北京人形首创的UVMC(多模态视动统一表征)技术是关键,它能够搭建起视觉与动作的映射桥梁,让机器人将看到的画面瞬间转化为身体的本能反应,像人类条件反射般自然做出正确的应对动作。XR-1的多构型预训练能力,使具身天工2.0具备全身多关节丝滑拟人控制,可实现大幅弯腰下蹲并精准抓取随机摆放的物料箱,完成复杂倒料任务

  RoboMIND 2.0则在此前版本基础上进行了全面的升级。机器人操作轨迹数据增加到了30+万条、扩展了工业零件分拣、流水线设备、物理化学实验室、家庭厨房、家电交互等在内的11个涵盖工业、商用、家庭的场景,机器人本体、任务、技能数量也分别有了2倍以上的提升。同时,增加了1.2+万条带触觉操作数据支持训练VTLA、MLA模型,还可用于训练机器人大小脑模型,并开源了基于ArtVIP的大量仿真数据。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500