数据显示,2025年,我国人工智能企业数量超过6000家,核心产业规模预计突破1.2万亿元。目前,人工智能应用已覆盖钢铁、有色、电力、通信等重点行业,逐渐深入产品研发、质量检测、客户服务等重点环节。作为引领新一轮科技革命的技术,人工智能正深刻重塑经济形态与社会治理模式。加快构建与之相适应的法治框架,是保障其行稳致远的关键举措。
从全球视野观察,人工智能治理呈现出多元化思路。欧盟通过的《人工智能法案》确立了基于风险分级的监管模式,建立了禁止类、高风险类、有限风险类和最小风险类的四级监管体系。美国采取创新导向的监管策略,在《人工智能行政命令》中,注重通过标准化建设和行业自律推动创新。而我国治理路径的特色体现在“发展与安全并重、创新与规范协同”这一理念上,创新探索出数据权益分配与流通利用机制,既保障了数据安全,又畅通了数据要素市场循环,为全球人工智能治理提供了有益借鉴。
也要清醒认识到,我国人工智能法治建设仍面临诸多挑战。在立法层面,专门性法律缺位,网络安全法、数据安全法等法律之间的协调配套尚不完善。在监管实施中,部门职责不清晰、交叉与标准不统一的问题依然存在,算法透明度要求与商业秘密保护之间的关系需要更好平衡。在技术治理层面,数据质量参差不齐、算法偏见难以清除、责任界定模糊等问题仍待破解。此外,在知识产权保护、跨境数据流动等领域,还存在规制滞后现象。面向“十五五”,要从多角度施策,建章立制护航人工智能产业。
在立法进程上,构建以分级分类监管制度为核心、以技术标准体系为支撑的规范系统。在监管创新方面,建立跨部门协同监管平台,统一执法标准,在自动驾驶等特定领域推行“监管沙盒”机制,设立创新实验区,在保障安全的前提下促进创新。
在数据治理上,突破产权界定难题,可构建包括数据持有权、加工使用权和数据产品经营权在内的综合制度安排。建立覆盖数据收集、使用、销毁等全生命周期的管理机制,特别是在训练数据质量评估、数据标注规范等方面建立统一标准。
在算法问责上,建立覆盖设计、开发、部署全流程的问责机制,特别是在高风险领域设置强制性评估要求。引入算法影响评估制度,要求开发者在系统部署前进行公平性、透明度、安全性评估,并赋予用户解释请求权和异议权。
此外,强化企业主体责任,推动伦理审查内化为研发流程,鼓励设立算法治理委员会。指导行业协会制定更高水平的行业准则和技术规范,建立人工智能伦理认证体系。完善公众参与机制,通过听证会、专家评议、民意调查等方式凝聚社会共识,确保技术发展符合公共利益。积极参与全球规则制定,推动建立公平、包容、可持续的全球人工智能治理秩序。
