美国加州州长加文纽森于13日签署法案,将该州推向全美首个要求AI聊天机器人运营商落实安全协议并承担法律责任的前沿。这项名为SB-243的法案定于2026年1月1日生效,要求企业实施年龄验证、社交及陪伴型机器人风险警示等多项安全功能。具体包括:具备类人对话能力的陪伴型AI,禁止与用户讨论自杀、自残或色情内容;平台需每隔三小时提醒未成年人“正在与AI对话”并建议休息,禁止其讨论涉性话题或冒充医疗专业人员;非法深度伪造内容牟利行为最高可处每次25万美元(约合178.4万元人民币)罚款。法案还要求Meta、OpenAI等公司每年提交报告,未达标需承担法律责任,同时建立自杀自残风险应急协议,向加州公共卫生部报送危机干预通知数据。
纽森在采访中指出,当下未成年人常借助AI解决作业或情感问题,这项技术“能启发教育、引发共鸣,但若无监管‘护栏’,也可能压榨误导青少年”。立法背景源于多起相关悲剧:2024年佛罗里达州14岁少年Sewell因沉迷Character.AI虚拟角色产生依赖,心理健康恶化后自杀,被称“全球首例AI机器人致死案”;2025年8月,16岁少年亚当雷恩与ChatGPT长时间互动后自杀,其父母起诉OpenAI及CEO山姆奥特曼,引发社会震动。“我们已目睹令人痛心的案例,年轻人正被无监管技术伤害,不会允许企业在缺乏必要限制和问责的情况下放任技术发展。”纽森强调。
该法案获众多网安专家支持。加州大学伯克利分校生物伦理学教授Jodi Halpern指出,大量证据显示,不受监管的情感伴侣AI对未成年人及弱势群体危害显著,企业通过技术设计增加用户粘性,导致依赖甚至成瘾,“有确凿数据表明,社交媒体与AI陪伴成瘾会显著提升未成年人自杀风险,部分认知障碍、强迫症及妄想症老年人也因此受到严重伤害”。
目前已有企业主动应对。OpenAI近期为ChatGPT推出家长控制、内容过滤及自残行为识别系统;Character AI则内置免责声明,明确对话为AI生成的虚构内容。
SB-243是加州近几周通过的第二项重要AI监管立法。9月29日签署的SB-53要求OpenAI等大型AI实验室公开安全测试流程,并为举报人提供法律保护。此外,伊利诺伊州、内华达州等已立法限制AI聊天机器人替代持照心理健康服务,此前联邦贸易委员会(FTC)于9月11日对7家AI企业展开调查,重点检查儿童保护措施。据法新社报道,美国联邦层面尚无控制人工智能风险的专门法规。
来源:南方都市报
#黄金逼近4200美元!美银:明年5000##3900点得而复失!A股风格要改了?##OpenAI联手博通!AI产业链怎么投?#