“一项政策的出台,将会影响哪些人,是否会造成对部分群体的不公?企业在进行商业决策、推广品牌时会不会有伦理风险?AI伦理大模型可以为这些问题提供答案。”在日前举行的“全球首个系统级伦理垂域大模型‘问道’”新闻发布会上,东南大学AI伦理实验室主任、人文学院教授王珏说。
“问道”拥有伦理风险评估与审计、伦理困境模拟与决策推演、伦理对齐辅助设计、动态知识库与案例教学、伦理学前沿探索与范式革新五大功能,目前免费向用户开放。“它致力于成为用户的伦理思考伙伴与决策支持系统,旨在帮助科研机构、科技企业、伦理审查机构、政策制定者以及公众在复杂的技术与社会问题中,洞察多元价值,守护社会之善。”王珏说。
系统识别评估伦理风险
“AI生成内容有没有著作权?”记者在“问道”大模型中输入上述问题,模型几秒钟便生成答案,其中包括结论摘要、背景原理、建议和信息来源类别说明。值得注意的是,大模型在背景原理部分,援引了著作权法的基本原则和《人工智能生成合成内容标识办法》。“‘问道’虽然不是全能的,但力求输出的内容有理有据。”王珏说。
“问道”由王珏牵头设计,东南大学移动通信全国重点实验室、毫米波全国重点实验室、教育部移动信息通信与安全前沿科学中心,以及江苏省道德发展智库等跨学科平台共同研发。
作为首个系统级伦理垂域大模型,“问道”构建了覆盖伦理治理全流程的功能矩阵。该模型可作为企业伦理“审查官”,自动审核商业决策、广告文案、算法模型是否存在伦理风险;也可成为AI研发的合规检测工具,帮助研究人员在产品设计之初就注入伦理考量,从源头避免偏见和风险;还可作为学生的伦理“导师”,通过模拟真实的道德困境,培养学生的批判性思维和道德决策能力。
“整体上,‘问道’能够对AI应用中的各类伦理风险进行系统识别与评估,并从中国语境出发提出具有可操作性的治理路径。”王珏说,“我们希望用AI的技术能力,主动加速、强化人类社会的伦理建设,不让‘道德进步’滞后于‘技术进步’,实现‘用技术解决技术带来的道德问题’。”
“知识树”减少“AI幻觉”
随着AI的广泛应用,“AI幻觉”也随之产生。当AI吸收的原始数据不足、错误或本身带有偏见,都会让其生成错误的观点和事实。
“我们以结构与约束减少幻觉,以透明与追溯克服伦理‘黑箱’。”王珏说,“问道”减少“AI幻觉”的方式并非依靠“大而多”的训练,而是依靠“结构化知识构建+多模式应答+分层安全机制+自动优化循环”四大体系形成的技术闭环。
该模型技术开发人员、东南大学信息科学与工程学院博士研究生缪钰杰解释:“我们在通用大模型基座的基础上,为‘问道’灌注了经典的伦理学著作、我国具有重大意义的伦理学案件、涉及伦理学的法律法规,以及近年来社会热点事件中的伦理规范。”他说,团队以目录感知的方式输入数据,形成一棵“知识树”,从而使模型在向用户输出信息时,可以让用户了解哪些内容来自哪本书的哪个章节。这种方式除了可以为用户提供结构化的知识图谱,还能降低大模型出现“幻觉”的概率。
王珏表示,未来,“问道”将持续优化人机交互机制,注重开发的系统性和渐次性,向专家和用户开放反馈通道,形成模型迭代的良性闭环,并进一步拓展其在科研、产业与教育等场景的深度应用,为推动AI与社会伦理协同发展贡献智慧。