在美国人工智能(AI)产业迈向新一轮资本扩张之际,一批身处核心岗位的研究人员却选择在离职时公开发声,对行业发展路径提出严厉警告。
Anthropic前安全防护研究团队负责人在离任之际表示:“世界正处于危险之中。”而一名即将离开OpenAI的研究人员则直言,当前的大模型技术“可能以我们尚无法理解、更谈不上防范的方式操纵用户”。
这些表态并非孤立情绪,而是集中反映出部分AI研究人员对技术外溢风险的担忧。
随着AI大模型在文本生成、图像生成乃至复杂决策辅助方面的能力迅速增强,其内部决策逻辑的“黑箱性”依然未被根本破解。这意味着,当模型在用户交互中产生诱导性表达、价值偏向或行为暗示时,人类尚缺乏足够工具去解释其因果路径,更难以及时纠偏。
OpenAI研究员Zo Hitzig指出,ChatGPT积累了大量高度私密的数据,包括医疗焦虑、情感关系困境、宗教信仰乃至对死亡的思考。这些内容之所以能够被坦诚表达,是因为用户相信自己面对的是一个“没有私利动机的系统”。
然而,一旦平台引入广告模式或更深层次的数据变现逻辑,用户与模型之间的“信任契约”可能发生根本变化。研究人员担心,当商业目标与用户脆弱心理数据发生交叉时,模型可能被设计为更具说服力、引导性,甚至具备某种“隐性操纵”能力。
Anthropic离职高管在公开信中提到,让价值观真正主导行动是极其困难的。这一表述意味着:当企业面临融资压力、估值目标和IPO预期时,增长速度往往优先于安全冗余。
当前的美国AI头部企业正处于关键资本节点。OpenAI、Anthropic等公司被普遍视为潜在上市标的,一旦IPO落地,融资规模与估值弹性将显著扩大。
但资本市场的逻辑强调可扩展性、收入模型与市场份额。在此框架下,广告变现、企业级订阅扩张以及多模态产品快速迭代成为主旋律。而安全部门、伦理委员会或“使命对齐”团队,往往被视为成本中心。
近期有报道称,OpenAI已解散其“使命对齐”团队,该团队原本旨在确保人工通用智能(AGI)的发展“造福全人类”。无论公司内部如何解释,这一举动在外部观察者看来,都被解读为资源向商业化倾斜的信号。
就在本周,OpenAI解雇了一位高级安全高管,原因是她反对在ChatGPT上推出允许色情内容的"成人模式"。OpenAI以歧视一名男性员工为由解雇了这位名为Ryan Beiermeister的安全高管。
类似问题也出现在xAI,该公司在加速重组与整合之际,多名创始成员与员工在短时间内离职。此前,其Grok聊天机器人因生成未经同意的色情内容以及带有反犹倾向的文本而引发争议,暴露出模型审核机制与上线节奏之间的失衡。
分析人士指出,在资本驱动下,“先发布、再修补”的互联网式产品逻辑,正被移植到具有更大社会影响力的生成式AI领域。