• 最近访问:
发表于 2025-07-19 14:27:59 股吧网页版
回应撤离中国市场原因 Manus首度披露技术侧经验教训
来源:第一财经 作者:吕倩

  Manus近期撤出中国市场、清空国内社交账号内容,全力转战海外市场,官方解释原因主要基于经营效率的调整及国际化布局。北京时间7月19日,Manus联合创始人季逸超发布技术博客,首度从技术角度做出回应,总结创业以来在Agent研发与训练方面的经验教训。

  单从技术层面来看,季逸超表示Manus会侧重押注上下文(Context)工程,借助构造“记忆”与流程实现产品快速迭代。主要包括押注上下文、不再训练模型,强调KV-Cache(Key-Value Cache,一种缓存机制)命中率意义,不动态添加工具,以及用文件系统承载持久上下文等方面。核心即节省底层模型训练成本,侧重训练效率的提高。

  上下文在大模型中通常指模型在处理任务或生成输出内容时所参考的信息集合,能够帮助模型增强理解能力、提高任务性能、增强输出连贯性。此前月之暗面Kimi创始人杨植麟在采访中强调过上下文的重要性,他称,Ai-native(由AI定义产品形态)产品的终极价值在于提供个性化交互,而无损长上下文(LosslessLongContext)是达成这一目标的关键。他判断模型的微调长期来看不应存在,用户与模型的交互历史就是最好的个性化过程,而长上下文技术能更好地记录和利用这些交互历史。

  另外,KV-Cache命中率至关重要,主要是因为高命中率可以提高推理效率,优化资源利用率,降低计算成本。也正基于此,KV-Cache常被称为Transformer模型推理阶段的效率核心。

  选择从上述各方面提高训练效率,而非从底层模型开始投入,是季逸超过往多年总结的教训。他称,创业上一家公司(Peak Labs)时,团队决定从头开始为开放信息提取和语义搜索训练模型,但之后不久,OpenAI的GPT-3与Google的Flan-T5模型出现了,团队从头研发的内部模型一夜之间变得无关紧要。“讽刺的是,这些模型标志着上下文学习的开始,以及一条全新的前进道路。”季逸超称。

  基于此前教训,创业Manus后,团队不再投入基座模型研发,而是从使用开源基础模型训练端到端Agent,与基于前沿模型上下文学习能力构建Agent两个选项中进行选择。虽然Peak Labs的教训令Manus团队意识到上下文的重要性,但这并不容易,经历过四次Agent框架调整才实现局部最优解。

  但需注意的是,该策略仍存在局限,尤其在面对类似OpenAI刚发布的ChatGPT Agent时。核心原因在于ChatGPT Agent依托OpenAI专用模型,采用端到端训练,可以更好地处理复杂任务,而Manus虽然可以提高效率,但仍依赖外部多模型组合与工程优化,在任务执行连贯性与准确性上稍逊一筹。

  另外,在Manus转战国际市场的节点,OpenAI凭借底层模型优势将Agent行业带入拐点,吸引更多开发者与用户至大厂平台,虽然创业公司在垂直领域具备生存空间,但仍不可避免地面临市场份额被争夺的挑战。尤其在当下Agent类产品存在同质化严重、商业模式不明、成本高企等困境时,上下文工程等方面的亮点不足以让创业公司跳脱出来,团队仍需持续优化技术策略,探索差异化发展路径。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
郑重声明:用户在社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500