金融服务中的人工智能存在网络安全风险,迫切需要合作,财政部表示

快速导读:财政部发布了一份报告,强调了在金融服务行业使用人工智能(AI)所带来的网络安全风险。报告强调了政府和行业之间合作的必要性,以保障金融稳定。报告还指出了AI所带来的不断增长的能力差距,大型机构有资源开发定制AI系统,而小型机构则容易受到攻击。报告呼吁采取措施解决欺诈预防数据共享、欺诈数据标准化以及开发防御性AI以保护机构的问题。

小型机构缺乏欺诈预防数据共享,处于不利地位

财政部的研究显示,小型金融机构面临欺诈预防数据共享不足的问题,这影响了他们开发有效的AI欺诈防御能力。而大型机构则利用海量数据进行模型训练。报告建议初创企业可以提供数据标准化和质量评估等服务。差分隐私等技术可以促进金融机构之间的信息共享,而不会暴露个人客户数据。报告还强调了攻击者使用AI的情况,AI降低了部署复杂技术的门槛。

简化监管和增强AI可解释性的建议

报告建议简化监管监督,避免碎片化,并扩大标准以特别应对金融服务中AI带来的挑战。报告主张追踪数据的最佳实践,并为AI供应商制定“营养标签”,以明确AI模型中使用的数据类型、来源和预期用途。报告还强调了提高复杂AI的可解释性的必要性,特别是在生成式AI领域。报告呼吁制定培训和能力标准,以便那些使用AI系统的人员,并强调了共同的AI词汇的重要性,解决数字身份问题,并促进国际合作。

金融机构采用多种欺诈预防策略,越来越多地使用AI

根据PYMNTS Intelligence的一份报告,金融机构采用多种欺诈预防策略,越来越多的实体使用人工智能(AI)和机器学习(ML)来打击欺诈行为。然而,开发AI和ML工具涉及巨大成本,导致许多金融机构依赖外部供应商提供这些技术。报告指出,只有14%的金融机构开发了用于打击欺诈的AI和ML解决方案,而30%完全依赖外部供应商。此外,只有11%的金融机构内部开发其API,而22%专门使用第三方API解决方案。