信用風險管理中的人工智能

信用風險管理中的人工智能

xinyu 2025-04-05 騰訊 2 次瀏覽 0個評論

介紹

信用風險管理過程中應用人工智能(AI)已成為銀行業(yè)的熱門話題之一。 在進行有關AI應用的行業(yè)調(diào)查之后,香港金融管理局(金管局)在2019年11月發(fā)布了《應用人工智能的高層次原則》和《認可機構應用大數(shù)據(jù)分析及人工智能涉及的消費者保障事宜》。這是香港監(jiān)管機構就認可機構應用AI方面的首批明確發(fā)文。 已采用或計劃采用AI解決方案的銀行需要識別與高層次原則的差距,同時熟悉業(yè)界應用AI的最新發(fā)展。

 

機器學習

最簡單來說,AI可定義為機器對人類智能的模擬。 這是一個快速發(fā)展的領域,涵蓋了機器解決各種問題的過程。 機器學習(ML)是AI的一個子領域,它使電腦可以通過數(shù)據(jù)自身學習。 計算能力的進步促成了各種機器學習算法,例如深度學習、隨機森林、梯度提升算法(如XGBoost和LightGBM)、聚類分析(如k-means和DBSCAN)等。

機器學習算法中常見的程序,包括回歸、分類、形成網(wǎng)絡和判別分析(聚類),都十分適用于信用風險管理。 德勤研究發(fā)現(xiàn),機器學習算法在各種應用的預測能力(例如預測違約)都優(yōu)于傳統(tǒng)模型。 此外,機器學習算法還可用于非結(jié)構化數(shù)據(jù)分析,包括文本分析。這使機器學習在信用風險管理方面的應用更多樣化,例如透過分析媒體報導對信用預警信號進行建模。

 

信用風險管理中的應用

AI在信用風險管理中的應用雖仍屬萌芽階段,但隨著可用數(shù)據(jù)的急劇增長和機器學習算法的不斷進步,可預見這個領域?qū)⒂芯薮筮M展。從以下兩個近來急速發(fā)展的應用示例可見一斑:

1.    違約概率

傳統(tǒng)的違約概率(PD)模型在很大程度上依賴于邏輯回歸(logistic regression) 。該模型相對容易理解,數(shù)十年來亦一直是市場最佳實踐,但是傳統(tǒng)模型無法捕獲實際數(shù)據(jù)中可能存在的所有復雜關系。也就是說,傳統(tǒng)方法未盡用能從數(shù)據(jù)中發(fā)掘的預測能力

德勤法國進行的有關PD建模的案例研究發(fā)現(xiàn),多項模型表現(xiàn)指標均表明,使用隨機森林、梯度提升和堆疊法在構建PD模型中優(yōu)于邏輯回歸模型。在適當?shù)臈l件下,在模型估計中采用機器學習方法很大可能會提高模型的準確性。

不過,機器學習在提升模型準確性的同時,通常亦會令模型變得難以解釋。機器學習之所以常常被稱為"黑匣子",是因為很難以直觀的方式解釋其模型輸入和輸出之間的關系。也正因如此,業(yè)內(nèi)人士和監(jiān)管機構都不時對采用機器學習方法提出質(zhì)疑。當模型的可解釋性對于金融監(jiān)管機構來說仍然是一大關鍵時,也許這些質(zhì)疑的聲音在未來幾年也不會消停。

最近,各界開始協(xié)同合作,試圖打開機器學習信用模型的這個"黑匣子",為機器學習模型得到更廣泛的應用踏出了重要的一步。例如德勤法國開發(fā)了一個名為“Zen Risk”的解決方案,結(jié)合了傳統(tǒng)回歸算法和機器學習算法兩者的優(yōu)勢,產(chǎn)出準確且可審核的模型。

2.    信用預警信號

信用預警信號通常用于識別違約風險顯著上升的實體。 傳統(tǒng)的預警系統(tǒng)通?;诖罅课唇?jīng)實證的指標,并且嚴重依賴專家判斷。

AI擅長使用大量的高速數(shù)據(jù)來進行信用違約預警。憑借足夠的計算能力,AI算法能透過不同來源的指標提高預警信號的準確性。

自然語言處理技術(NLP)的出現(xiàn)也使分析文本信息變得可能。 NLP在我們的日常生活中的例子不勝枚舉,包括翻譯軟件、智能手機虛擬助手、銀行智能客服等。 從社交媒體帖子到傳統(tǒng)報刊的財經(jīng)新聞,只要是書面媒體,NLP都可以將其用于信用分析中,取代以往須由人工執(zhí)行的繁瑣工作。

從德勤中國開發(fā)的“德勤智慧債券”解決方案中可以看到NLP的出色表現(xiàn)。德勤智慧債券是具有實時預警和輿情監(jiān)測功能的債券信用風險管理平臺。于2018年前10個月進行的試行測試結(jié)果表示,其對中國債券市場的預警準確率達到100%。

 

挑戰(zhàn)

金管局在2019年第三季進行的一項調(diào)查顯示,香港銀行業(yè)應用AI的首五大障礙是:缺乏具備AI專業(yè)知識的員工、數(shù)據(jù)量不足、AI的設計倫理、數(shù)據(jù)隱私和安全、以及法律和合規(guī)挑戰(zhàn)。

由于信用風險管理一直是監(jiān)管機關高度關注的領域,銀行應特別留意以下的挑戰(zhàn):

信用風險管理中的人工智能

1.    合規(guī)性

金管局的一大工作重點就是監(jiān)管銀行的風險管理能力。他們期望金融機構擁有更透明、可審核的風險測量框架和業(yè)務決策流程。其《應用人工智能的高層次原則》發(fā)文中強調(diào)了董事會的責任、企業(yè)內(nèi)部的專業(yè)知識、可審計性、數(shù)據(jù)質(zhì)量、第三方管理和數(shù)據(jù)保護。

金管局是否會允許應用AI信用風險模型以作監(jiān)管報告用途還是未知之數(shù)。 不過,既然以"黑匣子"聞名的AI模型都顯然難以解釋,那銀行如何提升其解釋性、透明度和可審計性來滿足監(jiān)管期望的問題將無可避免。

為了獲得金管局的批準,銀行還應遵守金管局在《認可機構應用大數(shù)據(jù)分析及人工智能涉及的消費者保障事宜》中提出的要求,例如治理和問責制、公平原則、透明度和披露要求以及數(shù)據(jù)隱私和保護。

盡管金管局尚未發(fā)布有關采用AI法規(guī)的時間表,但銀行在開發(fā)AI解決方案時應積極與金管局進行磋商,以確保能滿足監(jiān)管要求。

2.    模型治理

在投入大量時間和資源訓練AI算法之后,模型結(jié)果仍然可能是難以解釋,甚至導致決策失誤。 如果模型沒有適當?shù)慕忉?,使用AI模型可能會帶來比以往更大的模型風險。

為了應對與AI相關的風險,需要對風險管理框架進行調(diào)整,例如模型開發(fā)的假設和方法論,模型輸入和控制措施都需要重新檢視。 模型解釋和動態(tài)校準之類的程序?qū)τ诰S護AI模型也是不可或缺的。

3.    數(shù)據(jù)質(zhì)量

無異于傳統(tǒng)的信用風險模型,AI模型也對數(shù)據(jù)敏感。由于訓練AI模型需要足夠大而全面的數(shù)據(jù)集,銀行在處理跨平臺和跨系統(tǒng)的大數(shù)據(jù)時應特別注意數(shù)據(jù)標準化、準確性、有效性和完整性。錯誤的數(shù)據(jù)應該盡早發(fā)現(xiàn)并糾正。

除數(shù)據(jù)質(zhì)量外,銀行應采取措施去緩解有關處理大數(shù)據(jù)時的風險,例如數(shù)據(jù)隱私、網(wǎng)絡安全和計算能力。 此外,銀行應注意其他相關規(guī)定,例如跨境數(shù)據(jù)處理,云計算等。

 

下一步是什么?

應用AI將逐漸成為信用風險建模中的一個不可缺少的環(huán)節(jié)。 除了金管局調(diào)查顯示香港 89%的銀行已采用或計劃采用AI,金管局首席執(zhí)行官余偉文在2019年香港金融科技周主題演講中亦提到,金管局已在AI應用和合規(guī)科技 (RegTech) 的開發(fā)取得進展。 香港的銀行業(yè)亦可觀望其他地區(qū)的相關監(jiān)管發(fā)展作為自己的參考。例如,新加坡金融管理局發(fā)布的《新加坡金融部門在使用人工智能和數(shù)據(jù)分析中促進公平,道德,問責和透明度的原則》(FEAT)里面就有不少值得香港金融機構借鑒的內(nèi)容。

隨著技術的快速成熟和對AI模型更深入的理解,我們預計在未來三到五年內(nèi),金融服務領域的AI應用將會有可觀的增長。AI影響的范圍包括欺詐檢測、模型驗證、壓力測試和信用評分等領域。但是,由于大多數(shù)AI算法的黑匣子性質(zhì),相應的治理框架仍較落后。這將影響機構的模型治理框架,并且需要高質(zhì)量的數(shù)據(jù)來確保AI正常運行。

為了利用AI解決方案展現(xiàn)的可能性并贏得金融監(jiān)管機構的信心,信用風險從業(yè)人員應密切關注AI在其自身組織中的實施進程,并開誠布公地與主管表達自己的想法。

轉(zhuǎn)載請注明來自濟南富森木工刀具制造有限公司 ,本文標題:《信用風險管理中的人工智能》

百度分享代碼,如果開啟HTTPS請參考李洋個人博客
每一天,每一秒,你所做的決定都會改變你的人生!

發(fā)表評論

快捷回復:

驗證碼

評論列表 (暫無評論,2人圍觀)參與討論

還沒有評論,來說兩句吧...

Top