近日,蚂蚁集团旗下具身智能公司蚂蚁灵波科技正式推出其首款开源空间感知模型LingBot-Depth,并对外宣布与机器人及AI视觉领域头部企业奥比中光达成战略合作意向。据中国证券报记者了解,奥比中光凭借在行业内的领先技术实力,为LingBot-Depth的研发与测试提供了核心硬件支持,该模型已通过奥比中光深度视觉实验室的专业认证;双方计划通过持续技术协同,推动空间智能从算法创新落地至真实应用场景。
作为蚂蚁集团布局具身智能的核心载体,蚂蚁灵波科技长期专注于具身智能基座研发。此次发布的LingBot-Depth模型,成功解决了机器人在真实复杂环境中遇到的视觉感知痛点——针对玻璃、镜面、金属等透明或高反光物体导致的深度信息丢失问题,该模型通过奥比中光Gemini330系列双目3D相机输出的芯片级原始数据进行智能补全,有效提升了机器人在复杂光学场景下的感知稳定性与作业效率。
随着机器人与具身智能技术向制造业、服务业等多场景渗透,AI对空间环境的精准感知与理解成为关键基础。而算法模型的落地优化,离不开高性能硬件的支撑。奥比中光Gemini330系列双目3D相机搭载自研深度引擎芯片MX6800,融合主动与被动成像技术,可在全光照环境(从漆黑到强光)下稳定输出精准三维数据;同时,芯片级计算让深度图像运算与传感器同步在相机端完成,大幅降低上位机算力负担,实现超低数据传输时延。
LingBot-Depth模型通过奥比中光Gemini330系列相机完成RGB-Depth数据采集与效果验证,并基于芯片直出的深度数据训练优化,实现空间智能算法的创新突破。该模型已通过奥比中光深度视觉实验室认证,在精度、稳定性及复杂场景适应性上均达行业领先水准。
双方表示,合作达成后将基于LingBot-Depth模型联合研发新一代深度相机,依托Gemini330系列的芯片级3D数据优势,通过技术协同与生态共建,为机器人应对各类极端场景、实现规模化落地提供技术支撑。
蚂蚁灵波CEO朱兴指出,LingBot-Depth的研发验证了“高质量芯片级深度数据+场景化算法建模”在提升复杂环境可用性上的价值——在不改变现有传感器形态的基础上,通过软硬协同与工程化评测闭环,可让更多机器人在透明/反光等高难度场景中获得稳定深度输入。
奥比中光泛机器人产品中心负责人钟亮洪称,空间智能的落地依赖硬件与算法的深度协同,蚂蚁灵波在空间智能模型算法上的探索,与奥比中光在3D视觉芯片及机器人视觉领域的技术积累形成互补。Gemini330的芯片级深度数据为LingBot-Depth提供了真实稳定的高质量数据支撑,是机器人“脑眼协同”的典型案例。
奥比中光自2015年起深耕机器人赛道,聚焦构建“机器人与AI视觉产业中台”,已为全球超3000家客户及开发者提供技术与产品,目前在中国服务机器人市场、韩国移动机器人3D视觉市场市占率均超70%。未来,双方将围绕“具身感知空间智能”深化协同,推动空间智能技术在复杂环境的稳定部署与规模化应用,助力机器人实现“看清并行动于真实世界”。
来源:中国证券报中证网
#继续新高!金价突破5200美元大关##煤飞色舞!资源机会来了?##段永平谈茅台:当前股价“真的不贵”#