国内宝藏 AI 公司 | RockAI 岩芯数智:务实的端侧原生模型公司
原创张艾拉
今天的主角是:RockAI(岩芯数智),网址 https://www.rockai.net/
之前我们介绍了上海一家成立不到半年就拿到天使轮的做端侧 AI 模型的公司,因为对这个赛道比较感兴趣,我又找了一家也是做端侧技术的公司。
国内宝藏 AI 公司 | 本智激活:端侧原生模型初创公司
大家都知道 GPT 中的 T 指的是 Transformer 架构,如果你了解的更多,你可能还知道 Google 一篇很出名的论文《 Attention Is All You Need 》就是介绍 Transformer 以及“Attention 注意力机制”,目前大多数 LLM 都是基于这个模型。
今天分享的这家公司最大的特点是,根本没用 Transformer 架构、非 Attention 机制,完全自研了一套自己的模型,所以很值得分享一下
「 RockAI 是什么 」
简单来说,RockAI 是一家专注于自主研发非 Transformer 架构、实现 AI模型原生部署在低算力设备上(如千元手机、AIPC、机器人、家电等)的端侧智能技术公司,致力于让每台设备能在无需联网的条件下实现实时决策与持续自主学习。
我再简单介绍下 Transformer 模型和 Attention 注意力机制。
Transformer 模型是一种常见的AI架构,它的核心是“注意力机制”。想象一下你读一篇文章,想理解文章的意思。Transformer 模型的做法是:让文章里的每一个字都去“看”其他所有的字,问问它们:“你和我的意思相关吗?有多相关?”。
这个“看”和“问”的过程就是 Attention 注意力机制。它让模型能找出哪些信息是重点、哪些词之间有联系(比如“猫”和“抓老鼠”),从而理解上下文。
这种方式非常强大,但也很“费脑子”(算力高),通常需要强大的云端服务器支持,不太适合直接在手机、家电这种小设备上运行。
我之前也写过一篇关于AI 幻觉的文章,核心就是这个 Attention 注意力机制,感兴趣也可以看下:
深度解析 | AI 幻觉的形成和应对路径
RockAI 自研的 Yan 模型,根本不用 Transformer 那套让每个字都互相“看来看去”的 Attention 机制,Yan 模型用了更简洁高效的数学方法,更像是在设备内部建立一个高效的“瞬时记忆+经验库”。设备边运行边学习(比如扫地机记住你家布局),可以直接跑在手机、家电、甚至玩具机器人上完全离线运行。
ockAI 成立于2023年6月,是A股上市公司岩山科技(002195.SZ)的控股子公司。作为中国AI领域罕见的“非Transformer架构”突破者,其定位为端侧智能基础设施提供者
,目标是为低功耗设备赋予原生 AI 能力。CEO 刘凡平拥有连续创业经历,坚定选择非Transformer、自主架构路线,在行业内少见。在最近的 WAIC 世界人工智能大会上,RockAI 的一台机器狗仅仅观察了观众用右手打招呼的手势,不到30秒的时间便完美复刻了这一动作,整个过程是在完全离线的情况下完成的,无需云端支持。
融资情况方面,未进行独立融资,主要依托母公司岩山科技资金支持。商业模式为技术授权与软硬件解决方案销售,据报道 2024年已实现正向现金流。
「 产品和技术特点 」
前面介绍了,RockAI 的核心技术就是非Transformer架构与原生记忆。自研的 Yan 架构可在8GB RAM的消费级硬件(如树莓派、高通手机芯片)运行,红米 K50 上每秒输出 12 token,脱离云端依赖,性能超越压缩部署的 Llama3 等 Transformer 模型。
多模态处理能力。Yan1.3 支持图文、语音输入,Yan 2.0 Preview 能解析动作轨迹、物体状态变化(如机器狗复刻人类动作),也可以端到端处理文本/音频/视频,例如灵巧手同步完成视觉识别、决策与键盘操控。
Yan2.0 Preview 还引入“训推同步+可微记忆模块”,允许模型在推理时自我更新与遗忘,实现边跑边进化的设备端个性化智能。
产品落地与案例:
机器人“小智”:搭载树莓派5芯片运行 Yan1.2,在断网状态下识别视觉场景、听觉指令、对话交流并作诗,展示强大现场交互能力;
无人机“飞龙”:部署 Yan1.3 实现离线巡检、智能感知与即时响应,降低 5G-A 流量成本;
AIPC助手与导览机器人:已向文娱、PC 端助手(会议摘要、语音转录等)等客户交付应用。
「 市场表现和商业模式 」
RockAI 的目标用户为硬件制造商(AI PC、机器人、玩具厂商)、行业客户(金融、能源、文旅、医疗等)、出口经销商、消费类设备品牌。覆盖智能玩具、机器人交互、无人机巡检、智能 PC、AI 手机等场景。
盈利模式也很清楚,一是授权费按设备出货量收取,入门设备每台约 $0.5-$2,二是解决方案销售,为机器人、XR眼镜提供软硬件套件,毛利率估计 >60%。
看了上面这些,不知道你和我的想法是否一样,RockAI 是一家非常“务实”的公司。不选择 Transformer 架构,不是技术“炫技”,是刚需场景优先——它瞄准的目标市场需要能耗低、部署成本低、实际落地更快的模型。
对标 Llama3、Cohere、MistralAI 等,这些模型多基于 Transformer,云端或边云协同部署,对算力和数据高要求,而 RockAI 专注极端算力约束下设备端运行。
同时,海外对隐私、安全敏感、网络覆盖不均,RockAI 的离线端侧方案更适合发展中国家大批量设备,高适配性带来市场优势。
关于端侧 AI 市场,之前的文章我们也介绍过。AI PC:2024年出货4800万台,2027年预计1.65亿台(IDC);智能眼镜:2025年全球出货1451.8万台(中国占290.7万,同比+121%)。
RockAI 避开云端大模型红海,主攻千亿级离线设备市场,当前在端侧记忆智能领域可以说无直接对手。
最后,关于 RockAI,我们可以看到差异化路径也是核心优势,不是必须一定要跟随主流选择的 Transformer,而是选择更适配市场需求的架构创新。