人工智能的采用率正在上升,但信任仍是一个关键挑战。
全球四大会计师事务所之一的毕马威(KPMG)发布的最新数据显示,相较于2022年ChatGPT发布前,如今AI(人工智能)普及率已经显著提升,但忧虑情绪也随之上升,全球仅46%受访者愿意信任AI系统。
许多先进的人工智能模型被视为“黑箱”,即便是开发者也难以完全理解其决策逻辑。面对这种透明度缺失的情况,人们应如何建立对人工智能系统的信任?近日,《每日经济新闻》记者(以下简称NBD)专访了香港金融科技周筹办商Finoverse首席执行官Anthony Sar。
NBD:许多先进的人工智能模型被视为“黑箱”,面对这种透明度缺失的情况,人们应如何建立对人工智能系统的信任?
Anthony Sar:大型语言模型的透明度仍未完全实现,即便对其创造者而言亦是如此。如今,人工智能不仅能预测文字,还能理解概念——这既赋予了它强大的能力,也带来了相应风险。
建立信任需要强有力的人类监督、透明的数据使用以及企业级的测试。负责任的人工智能是能够部署在安全地提升人类成果的领域,而非取代人类的判断。
NBD:当人工智能系统出现严重错误(例如自动驾驶汽车引发事故、医疗人工智能给出误诊)时,该由谁为这一错误负责?
Anthony Sar:人工智能出现严重错误,其责任应由多方共同承担。就像交通安全依赖于司机、行人及监管机构共同遵守规则一样,负责任的人工智能需要开发者、部署者和用户各自承担明确的角色。
我们已经拥有监管复杂系统的框架,通过标准制定、测试和执行,这些框架同样可以应用于人工智能领域。
NBD:随着人工智能能力的快速提升,人们对其被恶意使用的担忧日益加剧,甚至有人担心人工智能可能变得无法控制,超出人类的监督范围。您认为,这些是迫在眉睫的现实威胁,还是遥远的科幻场景?人类社会应如何为人工智能的发展和使用划定“红线”,以应对其可能带来的“灾难性”或“生存性”风险?
Anthony Sar:与任何强大的技术一样,人工智能既可用于造福人类,也可能被用于危害他人,就像核能一样。人工智能可能在未来20年内超越人类能力,因此治理至关重要,必须确保技术发展的方向始终服务于人类福祉。
我们认为,灵活的、基于风险的治理模式是关键。需要注意的是,并非所有应用场景都存在相同程度的风险,在金融、医疗或公共安全等敏感领域,监管必须像对持证职业那样严格,确保每一项决策都经过测试、验证并明确问责。但在创意类或低风险应用场景中,应允许人工智能在清晰的伦理准则下更自由地发展。