12月18日,大晓机器人正式发布行业首创的ACE具身研发范式、首个开源且商业应用的开悟世界模型3.0(Kairos 3.0)、让具身本体拥有自主空间智能的具身超级大脑模组A1,与行业伙伴共同构建全链自主可控、开放共赢的产业级生态体系。
公开资料显示,大晓机器人是加速具身智能智慧跃迁的机器人公司,由商汤科技联合创始人、执行董事王晓刚出任董事长,世界级AI科学家陶大程院士担任首席科学家。
“今天是一个起点,公司的目标以产品落地进入到场景为导向。”王晓刚对包括《中国经营报》在内的媒体记者表示,有别于其他人形机器人企业,公司先从过去针对不同行业和场景的理解和经验积累入手,为机器狗、机器人赋予“大脑”模组,生态伙伴和公司一起设计、帮助生产,加速大晓机器人落地场景。
据了解,大晓机器人此次推出了具身超级大脑模组A1,并与行业伙伴共建具身智能创新生态,以加速机器人商业化落地,推进具身智能产业发挥价值。
“基于大晓机器人团队领先的纯视觉无图端到端VLA模型优势,搭载具身超级大脑模组A1的机器狗无须预采高精地图,即可适应复杂、动态、陌生环境。”大晓机器人方面表示,依托模型的视觉理解和运动规划能力,机器人能实现动态环境下鲁棒、安全、合理的路径生成,真正实现“自主行动”。
同时,有别于“以机器人为中心”的研究范式,大晓机器人率先提出了“以人为中心(Human-centric)”的ACE具身研发范式。
“在ACE具身研发范式中,环境式数据采集可实现一年千万小时的数据收集,开悟世界模型3.0则不断放大真实数据价值,使其达到上亿小时数据规模的效果。”大晓机器人方面表示,ACE具身研发范式彻底颠覆传统逻辑,将人类与物理世界的互动规律作为核心研究起点,以环境式数据采集为引擎,构建了一套“环境式数据采集—开悟世界模型3.0—具身交互”的全链路技术体系。
ACE具身研发范式的核心技术之一是环境式数据采集技术,通过跨视角多模态设备,融合视觉、触觉、语音、力学规律等多维度数据,以及物理级建模与全场景覆盖的创新设计,为具身智能模型训练提供“人—物—场”全要素精准数据支撑。
据介绍,环境式数据采集技术以人为中心构建全要素采集体系,整合第一视角与第三视角视频、力触觉信息、运动轨迹、语音等多模态数据,构建基于物理基础的3D资产库,全面覆盖具身模型训练所需的各类交互信息,实现了多视角协同、长程任务覆盖与全维度信息捕捉的跨越式升级。
例如,在即时零售仓储场景中,上述方案已实现多视角数据采集,覆盖数万种SKU,完成仓储分拣与打包全流程,涵盖五大阶段、13个原子动作;在居家、零售等多元场景中,也已实现对人体自然行为、物品交互轨迹的精准捕捉,甚至能复现遥操作范式下难以实现的生鲜抓取、精细化放置等任务。
据介绍,大晓机器人未来还将持续技术创新、持续打造领先模型、持续推动智能化应用、持续深化生态协同,加速更多行业级具身智能方案的落地。
王晓刚表示,大晓机器人秉持持续创新的技术理念,携手产业链伙伴共建开放协同的产业生态,通过ACE具身研发范式、开悟世界模型及具身超级大脑等研究成果,推动具身智能实现规模化商业落地与产业蓬勃发展,为中国在全球智能技术竞争中构建自主可控、引领未来的发展路径。