从智能投顾到风控建模,从客户服务到资产管理,生成式人工智能(AIGC)在金融业的应用越发广泛和成熟。
在技术赋能的同时,如何在创新与监管之间取得平衡,构建安全、透明、可解释的AI金融生态,正成为行业关注的焦点。
在2025世界人工智能大会(2025 WAIC)期间,《中国经营报》记者专访毕马威中国金融科技主管合伙人黄艾舟,深入探讨AI在金融场景的落地进展、行业短板与监管挑战。
黄艾舟认为,生成式AI正在重塑金融业务流程,具备提升效率与决策能力的巨大潜力,但要实现大规模落地,需要夯实数据基础,并在合规、安全与差异化创新中寻找平衡。监管机构也必须紧跟步伐,利用大数据、云计算等前沿技术,推动监管工作向更加智能化、精准化的方向转型。
AI较难完全胜任前台业务场景
《中国经营报》:AI在金融领域场景应用中,哪些领域比较成熟?哪些领域存在短板?
黄艾舟:当前金融机构对于生成式AI的应用更聚焦于如何综合利用现有信息和数据洞察客户需求、优化智能决策、提高业务流程效率、强化风险管控等。在包括前瞻性风险研判、复杂财务数据的精准检索与自动化报告生成,以及高效构建领域专属知识库等落地场景中,生成式AI展现出了巨大的降本增效潜力,但这些场景多集中在金融业的中后台部门。
由于金融业务有极强的面客属性,同时受到严格监管,因此,前台业务场景中,生成式AI在直接面客的智能客服、定制化对客服务等场景中,由于大模型“幻觉”等问题仍较难胜任,目前较能胜任的是辅助赋能服务顾问,即间接面客场景。
《中国经营报》:当前大型金融机构在AI布局上已形成较成熟的场景,而中小机构受限于资源和技术能力,布局相对滞后。你认为这种“马太效应”的核心制约因素是什么?中小机构是否有“弯道超车”的可能性?
黄艾舟:相较大型金融机构,中小金融机构在资金、技术和数据基础、人才储备方面的资源禀赋天然处于相对劣势地位,而这种初始差距或将因AI技术的应用不断放大。这主要体现在,构建统一、强大的全栈式AI底座往往超出大多数中小机构的资源和自研能力范围。因此,此类机构当前的AI应用开发通常采取直接引入成熟的外部供应商能力,且为了满足不同需求,常常同时引入不止一家的模型和服务。这在一定程度上会导致AI应用场景的碎片化,加剧数据孤岛。
更长远来看,这种建设模式下,中小机构会迎来难以统一管理和复用异构AI能力的问题,使得AI应用停留在项目级,难以形成规模效应,可能会抑制其持续投入的积极性。
关于中小机构“弯道超车”的可能性,先要明确中小机构的“弯道超车”,更多是在其深耕领域实现对大型机构的超越,而非全方位挑战大型机构的综合性优势。要达成这种聚焦式超越,差异化竞争策略是核心。具体路径有三:一是借助大模型开源生态,以低成本路线快速强化AI底座,弥合与中大型机构的差距,减少对外部供应商的依赖;二是充分挖掘细分领域的知识资产价值,利用大模型的理解力,将自身专业经验、数据积累、场景理解优势嵌入到AI应用中,打造不可替代的竞争力;三是借助行业生态力量,积极探索与同体量机构、中大型机构、第三方科技公司、行业联盟等的合作,通过整合外部资源、知识共享与能力互补,提升自身AI能力建设效率。
监管工作更加智能化、精准化
《中国经营报》:金融数据涉及用户隐私和交易敏感信息。在AI模型训练、数据共享等环节中,你认为当前金融机构面临的最紧迫的数据安全隐患有哪些?如何在“数据可用”和“安全可控”之间找到平衡?
黄艾舟:结合数据采集、存储、处理与使用的全生命周期管理来看,金融机构目前面临的数据安全隐患主要有以下几点:
第一,数据泄露风险,即未经过严格脱敏处理的敏感数据若直接输入模型训练,存在模型在应用时还原或泄露这些敏感信息的隐患,该类风险贯穿数据采集、存储和使用全流程。
第二,数据版权风险,即大模型训练所用数据若未获得权利人明确授权,将面临严重的版权侵权争议与法律风险。
第三,数据投毒与污染风险,即攻击者在模型训练阶段通过向开源数据集注入恶意样本,诱导模型生成偏向性或错误输出,破坏模型可靠性。
第四,数据源质量风险,即未经严格筛查,数据质量问题会显著延长模型训练时间,消耗更多计算资源。
第五,标注与清洗风险,即标注错误或清洗不彻底,会将大量“噪声”引入模型训练过程,非但无益于提升模型能力,还会误导模型学习错误的特征关联,导致输出结果的准确率下降、逻辑混乱或语义偏差。
为更好平衡“数据可用”和“安全可控”,相关机构可探索构建面向AI场景应用的“事前准备、事中监控与响应、事后追溯改进”的数据安全治理闭环体系。在事前准备阶段,可建立高可靠数据语料库,实施数据分级分类,并确保来源合规;在事中监控与响应阶段,应当注重强化过程防护与隐私保障,包括严格敏感信息处理、严格管理访问控制等;在事后追溯改进阶段,应实现持续监控与体系化防御,包括动态扫描数据风险、常态化模型安全检测等。
《中国经营报》:对于现有监管框架如何防范AI在金融领域可能带来的风险,你有何建议?
黄艾舟:随着AI在金融领域的深入应用,其带来的隐私数据泄露、算法偏见、道德风险及伦理问题等风险日益凸显,对金融监管提出了更高要求。为有效应对这些挑战,需从多个方面完善监管,防范AI在金融领域的风险。
首先,有序推进监管立法是关键。鉴于AI技术的复杂性和金融领域的特殊性,监管部门应加快制定和完善相关法律法规,明确AI在金融领域的应用边界、数据保护要求、算法透明度标准等,为AI金融应用的合规性提供法律保障。
其次,随着人工智能技术的突飞猛进发展,监管机构也必须紧跟步伐,不断提升自身的技术实力与人力资源配置。这要求组建专业化的监管团队,深化对AI技术的理解与应用能力,并利用大数据、云计算等前沿技术,推动监管工作向更加智能化、精准化的方向转型。
此外,监管沙盒为AI在金融领域创新提供了一个有限范围的测试环境,使其能够在监管部门的指导与监督下,对AI创新金融产品或服务进行试验。监管部门探索监管沙盒的应用,在测试AI在金融领域应用效果的同时监测潜在风险,为AI在金融领域创新构建一个既包容审慎又灵活应变的真实市场生态。