首页 > 舞弊新闻 >

科技赋能:AI与机器学习驱动银行业变革

2024-08-12

1.png


现代银行业的复杂生态系统正经历着由人工智能(AI)及其中的机器学习(ML)所带来的革新,它们影响着从客户服务优化到信贷风险评估重塑的方方面面。根据我在风险管理和对大型金融机构审计方面的丰富经验,我已经看到了这些技术带来的变革力量。但同时,随着创新而来的还有新的舞弊手段,这需要我们必须在监管方面更加警惕。

不论你是作为舞弊调查的专业人士、审计专员,还是遭受身份舞弊的普通客户,理解和掌握金融机构中的信贷风险模型都是非常重要的。无论你在金融行业中扮演何种角色,这种知识都非常关键,因为它直接关系到从银行账户、房贷到学生贷款等各种金融产品的全球管理与安全性。对于任何与金融服务打交道的人来说,理解金融机构如何评估与每个客户(不论是个人还是公司)相关的风险是非常重要的。这种理解有助于我们更好地认识影响日常生活财务决策的金融产品的安全性和可靠性。


信用风险模型的演变

信贷风险模型是银行运营的基础,随着人工智能和机器学习技术的出现,这一领域已经有了显著的进步。这些技术提供了强大的工具,用来分析大量数据集,能够更准确地预测贷款违约情况,并根据个人客户的特定需求定制金融产品。不过,这样的技术进步也带来了新的挑战,包括如何确保数据的完整性、算法偏差以及提高决策过程的透明度等问题。

巴塞尔银行监管委员会于2013年初发布的《有效风险数据汇总和风险报告原则》旨在加强银行业管理风险数据的能力,特别是对于全球系统重要性银行 (G-SIBs)。(参考“全球系统重要性银行:评估方法和额外损失吸收要求”,巴塞尔银行监管委员会,2023 年 11 月 27 日。)这些原则涵盖了若干关键领域,包括风险数据的汇总能力、风险报告的实践做法,以及建立稳固的治理结构和数据架构来支持这些功能的重要性。(参见“有效风险数据汇总和风险报告的原则”,巴塞尔银行监管委员会,2013 年 1 月。)


机器学习的双刃剑

尽管机器学习非常强大,但它仍然遵循“错误的输入导致错误的输出”的基本原理。数据集的质量以及算法的客观性极其重要。如果数据或设计中存在偏差,则可能导致风险评估出现偏差,从而不公平地影响贷款审批或利率。这对于舞弊审查师来说是一个重大挑战:即确保这些创新模型不会无意间助长金融舞弊行为或导致歧视现象的发生。


现实生活中的讨论深入洞察人工智能和机器学习在银行业的实际影响

示例 1:信用风险评分挑战

信用评分系统在金融机构中至关重要;它们通过复杂的评分卡给个人打分,通常是三位数的分值,范围在300到850这个区间。这个分数有助于决定一个人的借贷能力。然而,在解读这些分数时会具有一定挑战性,因为评分系统常常在缺乏足够背景或解释的情况下对个人进行分类。例如,一个得分720的人处于“良好”范围内,但构成该分数的潜在因素,并没有明确地详细说明,如及时还款或信用卡使用率。这种透明度的缺失可能让客户和贷款专员感到困惑,从而在贷款的过程中产生潜在的误解或误判。

示例 2:贷款审批中的算法偏差

在美国,利用邮政编码作为算法的一部分来决定贷款资格已经成为了一个重大的挑战。虽然这些算法原本目的是通过分析地理位置数据来简化贷款审批流程,但却无意中揭示了种族偏见的存在。例如,一些主要由少数民族居住的地区可能会遭遇不利的贷款条件或直接被拒贷,这种情况并非由于个人的信用资质不佳,而是由于这些地区的邮政编码背后所反映的历史社会经济状况。这种算法决策带来的意外后果说明如果不仔细监督和适当调整的话,人工智能可能会加剧现存的社会偏见。

示例 3:用于金融犯罪检测的机器学习模型

银行采用监督式和非监督式的机器学习模型来检测和预防金融犯罪。这些模型通过分析交易数据中的模式来识别可能显示舞弊行为的异常情况。然而,一个显著的问题在于这些模型过于依赖历史数据,而这可能无法充分捕捉到新的和变化多端的舞弊手段。例如,随着网络犯罪分子采用更为高明的方法,这些模型可能会错过识别这些舞弊形式的机会,从而在舞弊检测中出现盲点。因此,我了保持这些系统的有效性,持续更新并使用新的数据集进行训练是至关重要的。


机器学习在银行业的好处和挑战

好处:

  • 提高预测准确性:借助机器学习,我们可以大幅提升预测贷款违约及客户行为的准确性。通过对海量的历史数据进行分析,AI算法能够揭示那些对人类分析师来说可能并不明显的细微规律。

  • 加强侦测金融犯罪及合规性问题:人工智能系统具有非常宝贵的能力,能够实时进行交易监控,迅速识别可能有关于洗钱、内幕交易或其他合规问题的违规行为。

挑战:

  • 算法偏差:跟在贷款流程中使用邮政编码的情况一样,机器学习系统可能会不经意间学到一些训练数据中的偏差并且继续延续下去。解决这一问题需要我们长期保持警惕,并定期检查模型的决策标准。

  • 缺乏透明度和可说明性:AI系统往往像黑匣子一样工作,其中的决策过程对外界(包括用户和监管机构)来说既不透明也不易理解。这种特性可能会损害公众对AI系统的信心,并使监管合规工作变得更加困难。

  • 新形式的金融舞弊:随着AI工具日益精进,那些意图利用金融系统的手段也变得更加复杂。金融机构与舞弊者之间的这场“军备竞赛”要求AI技术必须不断进步,以便能够检测并减轻这些风险。

在美国国家标准与技术研究院(NIST)于2024年4月发布的《人工智能风险管理框架》(AI RMF)以及英格兰银行的FS2/23等监管文件中着重强调了解决这些问题的重要性。这两个框架都强调了增强透明度、确保公平性及减轻偏见的必要性。(参考“技术与政策文件”,美国国家标准与技术研究院;以及“PRA监管摘要 - 2023年10月”,英格兰银行,发布于2023年11月1日。)

虽然将人工智能和机器学习融入银行业务运营中明显是很有优势的,但也带来了一系列特殊的问题,这些问题必须得到妥善处理。对于注册舞弊审查师(CFE)来说,深刻理解这些细微差别至关重要——这不仅是为了更有效地运用人工智能技术,也是为了确保它能够在公平、透明和安全的前提下被使用。随着这些技术的不断进步,负责监督其在金融行业应用的人员也需要不断调整自己的策略。


操作风险和人为监督

在部署人工智能和机器学习模型时面临的操作风险远远超出了数据完整性的范畴,还涵盖了网络安全、模型治理和道德伦理使用等方面。人为因素仍然是至关重要的,这强调了需要有技术精湛的舞弊审查师来掌握人工智能应用的细节,辨识潜在的薄弱环节,并推动实施坚实的道德准则。

选定的关键治理框架和原则

高级管理人员和认证制度(SM&CR)。(参考“高级管理人员和认证制度”,金融行为监管局,2015 年 5 月 7 日。)

巴塞尔委员会操作风险管理指南。(参考“操作风险健全管理原则”,巴塞尔银行监管委员会,2011 年 6 月。)

欧洲银行管理局 (EBA) ICT 和安全风险管理指南。(请参阅“遵守 EBA 指南和建议”,欧洲中央银行,2023 年 5 月 7 日。)

现实生活中的见解包括以下内容:

示例 1:模型验证失败

比方说有这样一个例子,用于市场对冲的一种强化学习模型(这是一种专注于通过互动学习来进行决策的人工智能子领域)由于错误的假设而导致了巨额亏损。即使该模型已经通过了初步的验证测试,但它未能针对市场条件的变化做出适应。(参考文献:《使用强化学习深度对冲衍生品》,作者:Jay Cao、Jacky Chen、John Hull 和 Zissis Poulos,多伦多大学约瑟夫·L·罗特曼管理学院,2020年7月。)

示例 2:概念的合理性和可解释性

信用评分模型,比如FICO或Experian使用的那种,通过分析个人信用报告中的多个数据点来评估其信贷风险。如果模型由于数据漂移等问题而错误地预测了较高的违约率,这便突显了模型需要具备强大的概念合理性和可说明性的重要性。信用评分方法被广泛应用,通常会考虑的因素包括支付历史、欠款金额、信用历史的长度、新开立的信用账户以及使用的信用类型。对于企业客户,则有更为复杂的信用评分模型,这些模型的方法需要接受监管机构的审查(例如违约概率(PD)、违约损失率(LGD)等参数)。

数据漂移是指模型的输入数据分布随时间发生的变化,这可能会对模型的性能产生影响。对于那些依赖历史数据来预测未来行为的信用评分模型而言,这一点尤为重要。(参考文献:《使用局部竞争力区域进行漂移适应的信用评分》,作者:Dimitrios Nikolaidis 和 Michalis Doumpos,《运筹学论坛》,2022年11月25日。)

概念合理性确保模型的理论基础和假设是合理的。在人工智能和机器学习模型中实现可解说明性意味着使模型的决策对人来说是可以被理解的,这在信用评分等监管环境中至关重要。(参考文献:《银行模型风险管理原则》,英格兰银行PRA,2023年5月;以及《模型风险管理》,货币监理署,2021年8月。)


监管框架和指南

NIST AI RMF和公共工作组的参与。

美国商务部下属机构 NIST 开发了人工智能风险管理框架(AI RMF),这是一个通过与包括我在内的 2,500 多名成员在全球合作设计的综合工具。其主要目标是通过提供一个指南关于人工智能技术治理、风险评估和负责任部署等来增强人工智能系统的可信度。(参见“技术和政策文件”, 美国国家标准与技术研究院。)

欧盟人工智能法案(2024年4月)

2024 年 4 月 30 日敲定的《欧盟人工智能法案》是一项具有里程碑意义的立法,旨在为整个欧盟人工智能的使用和监管制定全面的法律框架。(参见“欧盟人工智能法案:关于人工智能的首个法规”,欧洲议会,2023 年 8 月 6 日。)关键组成部分包括:

  • 基于风险的分类:不可接受的、高、有限和最小风险。

  • 透明度要求:确保人工智能系统的功能透明。

  • 与通用数据保护条例 (GDPR) 和数字监管的链接:加强对可能损害个人数据隐私或导致歧视的人工智能的保护。(请参阅“什么是 GDPR,欧盟的新数据保护法? ”GDPR.EU。)

  • 对信用风险建模的影响:严格的准确性、记录和缓解程序,以处理人工智能驱动模型中的错误或偏差。

BiS - 巴塞尔委员会指南

有效风险数据聚合和风险报告的原则 (2013) :数据架构、IT基础设施和治理在支持稳健的信贷风险建模方面发挥着重要作用。(参见“有效风险数据聚合和风险报告的原则”,巴塞尔银行监管委员会,2013年1月。)

运营风险健全管理原则(2021):加强运营韧性、信息通信技术(ICT)连续性和业务连续性计划。(参见“操作风险健全管理原则”,巴塞尔银行监管委员会,2011 年 6 月。)


监管沙盒和全球发展

欧盟和美国沙盒

欧洲区块链监管沙盒和2022年DLT试点监管制度作为在受控环境中测试区块链创新的试验场。(参见“欧洲区块链监管沙盒”,欧盟委员会;以及“DLT试点监管制度”,欧洲证券和市场管理局。)同样,美国亚利桑那州等州和英国的金融行为监管局也引入了监管沙盒,用于实验和推进区块链技术。(参见“欢迎来到亚利桑那州的监管沙盒”,亚利桑那州总检察长;以及“监管沙盒”,金融行为监管局,2022年3月27日。)


新加坡金融管理局Veritas计划

Veritas 提出倡议,强调了在金融领域负责任地使用人工智能,重点关注公平、道德、问责和透明度 (FEAT) 原则。它涉及金融机构和科技公司之间的协作努力,将 FEAT 原则整合到人工智能系统中。(参见“ Veritas Initiative ”,新加坡金融管理局,2023 年 10 月 26 日。)


未来的方向和道德考虑

银行领域的AI发展前景充满创新,但也带来了监管和道德上的挑战。确立全球统一的人工智能标准、提高算法决策透明度和保护客户隐私等议题至关重要。只有合理运用技术并审慎评估其影响,才能既发挥其潜力又维护金融系统的稳定。作为舞弊审查师,我们必须不断学习与适应,确保能在银行业变革的过程中领先一步,有效预防舞弊并控制相关风险。

Britta Bohlinger, 一位注册舞弊审查师 (CFE),作为政府机构的合规审计员,专注于数据治理以及金融行业内系统和流程的审计工作。Bohlinger拥有丰富的投资银行背景,她利用自己在风险管理方面的专业知识,来应对舞弊预防和银行业人工智能应用所带来的复杂挑战。作为ACFE的一员,Bohlinger自2014年开始活跃于该组织,并自2018年起一直致力于培养下一代舞弊审查师,倡导在舞弊审查领域实施创新且合乎伦理的做法。


原文标题:

Decoding AI and machine learning in banking

By Britta Bohlinger, CFE


本文由ACFE China校对翻译,如需转载,请提前告知。