AI陪伴类产品引发的情感纠纷正引发社会广泛关注。OpenAI近日宣布强化青少年安全保护措施:为18岁以下用户推出未成年人模式,并配备家长监督功能。
青少年安全问题已成为AI陪伴产品的核心议题。过去几年,专注AI陪伴的Character AI公司多次因未成年人安全事件涉诉。2024年10月,美国14岁少年塞维尔塞泽的母亲将Character AI告上法庭,指控其在角色扮演和“情绪陪伴”中因缺乏安全防护,导致儿子陷入虚拟世界后自杀身亡,案件曾引发舆论震动。同年12月,美国得州一对父母又起诉该公司,称其鼓励17岁孩子因电子设备使用限制而杀害父母。近期,Meta被曝允许AI聊天机器人与儿童进行“浪漫或感性对话”,甚至涉及色情内容,其200多页内部文件披露了此类行为的“可接受标准”。
国内AI产品同样面临类似争议。2025年6月,筑梦岛APP因向未成年人推送色情擦边内容被上海网信办约谈。为此,筑梦岛、星野、猫箱等产品陆续推出未成年人模式,但实测显示,这些模式普遍存在功能过度限缩问题:星野模式下产品几乎无法正常使用,猫箱仅保留知识类内容浏览,无法互动,筑梦岛虽保留陪聊功能,但“病娇”“恐怖”等剧情范围受限,且每日使用时长不超过40分钟、22点后无法登录。更关键的是,多数产品仅在首次登录时弹窗提示未成年人模式,无强制实名认证,用户可轻易关闭,导致保护形同虚设。
相比之下,国外部分平台尝试通过AI技术优化保护。今年4月,Meta宣布Instagram将通过检测生日贴文、分析用户行为等AI手段识别谎报年龄的青少年,自动开启限制联系人添加、屏蔽不适宜内容的保护模式,修改权限需监护人同意。8月,Alphabet旗下YouTube也启动AI估龄测试,通过监测视频搜索、观看时长等指标推测用户年龄,对未成年人账号自动触发休息提示和内容屏蔽。
OpenAI此次推出的保护机制包括:通过年龄预测和使用状态判断未成年人,屏蔽露骨内容并在严重不良时联系执法部门;信息不全时默认提供青少年体验模式,成年用户可通过证明年龄解锁功能;家长可绑定账号管理禁用内容、查看历史记录,系统还会在检测到严重困扰时通知家长;同时设置青少年禁用时段,强制休息。OpenAI强调,这些功能基于与专家、政策制定者的讨论,未来将持续优化。
#英伟达巨资押注OpenAI,能否引领AI未来?#
#光交换机(OCS)成AI产业链新热点#