文章

信用风险管理中的人工智能

介绍

信用风险管理过程中应用人工智能(AI)已成为银行业的热门话题之一。 在进行有关AI应用的行业调查之后,香港金融管理局(金管局)在2019年11月发布了《应用人工智能的高层次原则》和《认可机构应用大数据分析及人工智能涉及的消费者保障事宜》。这是香港监管机构就认可机构应用AI方面的首批明确发文。 已采用或计划采用AI解决方案的银行需要识别与高层次原则的差距,同时熟悉业界应用AI的最新发展。

 

机器学习

最简单来说,AI可定义为机器对人类智能的模拟。 这是一个快速发展的领域,涵盖了机器解决各种问题的过程。 机器学习(ML)是AI的一个子领域,它使电脑可以通过数据自身学习。 计算能力的进步促成了各种机器学习算法,例如深度学习、随机森林、梯度提升算法(如XGBoost和LightGBM)、聚类分析(如k-means和DBSCAN)等。

机器学习算法中常见的程序,包括回归、分类、形成网络和判别分析(聚类),都十分适用于信用风险管理。 德勤研究发现,机器学习算法在各种应用的预测能力(例如预测违约)都优于传统模型。 此外,机器学习算法还可用于非结构化数据分析,包括文本分析。这使机器学习在信用风险管理方面的应用更多样化,例如透过分析媒体报导对信用预警信号进行建模。

 

信用风险管理中的应用

AI在信用风险管理中的应用虽仍属萌芽阶段,但随着可用数据的急剧增长和机器学习算法的不断进步,可预见这个领域将有巨大进展。从以下两个近来急速发展的应用示例可见一斑:

1.    违约概率

传统的违约概率(PD)模型在很大程度上依赖于逻辑回归(logistic regression) 。该模型相对容易理解,数十年来亦一直是市场最佳实践,但是传统模型无法捕获实际数据中可能存在的所有复杂关系。也就是说,传统方法未尽用能从数据中发掘的预测能力

德勤法国进行的有关PD建模的案例研究发现,多项模型表现指标均表明,使用随机森林、梯度提升和堆叠法在构建PD模型中优于逻辑回归模型。在适当的条件下,在模型估计中采用机器学习方法很大可能会提高模型的准确性。

不过,机器学习在提升模型准确性的同时,通常亦会令模型变得难以解释。机器学习之所以常常被称为"黑匣子",是因为很难以直观的方式解释其模型输入和输出之间的关系。也正因如此,业内人士和监管机构都不时对采用机器学习方法提出质疑。当模型的可解释性对于金融监管机构来说仍然是一大关键时,也许这些质疑的声音在未来几年也不会消停。

最近,各界开始协同合作,试图打开机器学习信用模型的这个"黑匣子",为机器学习模型得到更广泛的应用踏出了重要的一步。例如德勤法国开发了一个名为“Zen Risk”的解决方案,结合了传统回归算法和机器学习算法两者的优势,产出准确且可审核的模型。

2.    信用预警信号

信用预警信号通常用于识别违约风险显著上升的实体。 传统的预警系统通常基于大量未经实证的指标,并且严重依赖专家判断。

AI擅长使用大量的高速数据来进行信用违约预警。凭借足够的计算能力,AI算法能透过不同来源的指标提高预警信号的准确性。

自然语言处理技术(NLP)的出现也使分析文本信息变得可能。 NLP在我们的日常生活中的例子不胜枚举,包括翻译软件、智能手机虚拟助手、银行智能客服等。 从社交媒体帖子到传统报刊的财经新闻,只要是书面媒体,NLP都可以将其用于信用分析中,取代以往须由人工执行的繁琐工作。

从德勤中国开发的“德勤智慧债券”解决方案中可以看到NLP的出色表现。德勤智慧债券是具有实时预警和舆情监测功能的债券信用风险管理平台。于2018年前10个月进行的试行测试结果表示,其对中国债券市场的预警准确率达到100%。

 

挑战

金管局在2019年第三季进行的一项调查显示,香港银行业应用AI的首五大障碍是:缺乏具备AI专业知识的员工、数据量不足、AI的设计伦理、数据隐私和安全、以及法律和合规挑战。

由于信用风险管理一直是监管机关高度关注的领域,银行应特别留意以下的挑战:

1.    合规性

金管局的一大工作重点就是监管银行的风险管理能力。他们期望金融机构拥有更透明、可审核的风险测量框架和业务决策流程。其《应用人工智能的高层次原则》发文中强调了董事会的责任、企业内部的专业知识、可审计性、数据质量、第三方管理和数据保护。

金管局是否会允许应用AI信用风险模型以作监管报告用途还是未知之数。 不过,既然以"黑匣子"闻名的AI模型都显然难以解释,那银行如何提升其解释性、透明度和可审计性来满足监管期望的问题将无可避免。

为了获得金管局的批准,银行还应遵守金管局在《认可机构应用大数据分析及人工智能涉及的消费者保障事宜》中提出的要求,例如治理和问责制、公平原则、透明度和披露要求以及数据隐私和保护。

尽管金管局尚未发布有关采用AI法规的时间表,但银行在开发AI解决方案时应积极与金管局进行磋商,以确保能满足监管要求。

2.    模型治理

在投入大量时间和资源训练AI算法之后,模型结果仍然可能是难以解释,甚至导致决策失误。 如果模型没有适当的解释,使用AI模型可能会带来比以往更大的模型风险。

为了应对与AI相关的风险,需要对风险管理框架进行调整,例如模型开发的假设和方法论,模型输入和控制措施都需要重新检视。 模型解释和动态校准之类的程序对于维护AI模型也是不可或缺的。

3.    数据质量

无异于传统的信用风险模型,AI模型也对数据敏感。由于训练AI模型需要足够大而全面的数据集,银行在处理跨平台和跨系统的大数据时应特别注意数据标准化、准确性、有效性和完整性。错误的数据应该尽早发现并纠正。

除数据质量外,银行应采取措施去缓解有关处理大数据时的风险,例如数据隐私、网络安全和计算能力。 此外,银行应注意其他相关规定,例如跨境数据处理,云计算等。

 

下一步是什么?

应用AI将逐渐成为信用风险建模中的一个不可缺少的环节。 除了金管局调查显示香港 89%的银行已采用或计划采用AI,金管局首席执行官余伟文在2019年香港金融科技周主题演讲中亦提到,金管局已在AI应用和合规科技 (RegTech) 的开发取得进展。 香港的银行业亦可观望其他地区的相关监管发展作为自己的参考。例如,新加坡金融管理局发布的《新加坡金融部门在使用人工智能和数据分析中促进公平,道德,问责和透明度的原则》(FEAT)里面就有不少值得香港金融机构借鉴的内容。

随着技术的快速成熟和对AI模型更深入的理解,我们预计在未来三到五年内,金融服务领域的AI应用将会有可观的增长。AI影响的范围包括欺诈检测、模型验证、压力测试和信用评分等领域。但是,由于大多数AI算法的黑匣子性质,相应的治理框架仍较落后。这将影响机构的模型治理框架,并且需要高质量的数据来确保AI正常运行。

为了利用AI解决方案展现的可能性并赢得金融监管机构的信心,信用风险从业人员应密切关注AI在其自身组织中的实施进程,并开诚布公地与主管表达自己的想法。

此内容是否提供了您需要的资讯?