觀點
2025年8月
AI新風險光譜浮現
隨著AI應用深入金融業務,風險光譜面臨顛覆式的改變。除了傳統的駭客攻擊與資料外洩,更出現模型偏誤、資料污染、深偽詐騙(Deepfake)與詐騙攻擊(Spoofing)等新型態威脅,使得傳統的風控與治理體系面臨全面考驗。對於金融機構與監理機關而言,如何調適現行監理框架以因應AI新風險,逐步升級風控與治理文化以維護金融體系韌性,成為迫切課題。
AI的廣泛應用讓金融風險樣貌更加隱蔽且複雜。例如德國網路銀行霸主N26的AI放貸模型,曾被證實僅需竄改職業代碼或郵遞區號,就能將高風險申請人錯評為低風險,導致呆帳風險上升;國際上也出現交易模型遭社群媒體的機器人留言誤導(資料污染),造成市場情緒誤判而引發錯誤投資決策。同時,不法分子還利用深偽技術假造聲音,成功誘騙企業高層主管匯款,2020年某英國能源公司因此損失24萬歐元。
AI決策過程的黑箱效應也可能導致偏見與歧視風險,2019年Apple Card就曾因女性客戶信用額度明顯低於男性而遭質疑其演算法帶有性別歧視。甚至在交易領域,AI高頻交易系統也可能被詐騙攻擊,2010年美股閃崩(Flash Crash)中,有交易員透過大量虛假委託誤導市場,誘使AI程式跟進拋售,導致道瓊指數在數分鐘內暴跌近9%。上述案例顯示,AI時代的資安風險並非孤立的IT問題,而是以跨維度方式滲透到金融風控的整體架構中。
AI導入所引發的資安問題,會滲透到傳統五大風險領域,包括信用、作業、市場與流動性、法遵與聲譽風險。在信用風險方面,AI應用於信用評分模型可能會帶來潛藏風險。例如前述N26案例顯示,若模型可被輸入操控,高風險客戶可能被錯評為低風險,導致不良貸款增加,而此類操控若長期潛伏,更增添風險偵測難度。
在作業風險方面,大量流程交由AI決策後,任何模型錯判、系統誤觸或惡意深偽指令,都可能引發連鎖作業錯誤。例如智能客服若將詐騙來電誤判為正常電話,或將真實風控警示當成誤報,將造成實質損失並損害客戶權益。
在市場與流動性風險方面,AI參與高頻交易可能放大市場波動。模型若誤解新聞情緒而大量拋售,即可能引發價格閃崩。
在法律風險方面,AI的黑箱決策也在法遵領域引發新的挑戰,包含反洗錢、公平待客、金融友善與資料隱私等議題。以Apple Card為例,AI模型無法解釋女性客戶信用額度較低的原因,即被質疑違反性別平等法規並遭監理機關調查。對監理機關而言,確保AI模型具有「可稽核性」並明確劃分責任歸屬,已成為監理重點。在聲譽風險方面,一旦發生AI資安事故,媒體與公眾勢必質疑金融機構是否失職。即使實際損失不大,此類事件仍可能重創信任,造成股價下跌、客戶流失,進而惡化機構的市場聲譽與經營表現。
為因應上述挑戰,建議金融機構與監理機關可從治理架構、資訊透明、可解釋的技術等方面同步強化。在健全AI治理架構方面,董事會與高階經營團隊須將AI風險納入公司治理議程,建立跨部門的AI風險管理機制與倫理準則,定期審視模型表現與資安防護。監理機關亦應制定AI風險治理指引,確保金融業者對模型偏誤與濫用有適當的控管。
在強化資訊揭露透明方面,應要求金融機構適度揭露AI模型的決策原理、風險評估與重大資安事件,提升透明度,以利監理機關及利害關係人掌握AI風險狀況。同業間亦可透過資訊分享,交流AI風控的最佳實務來降低整體風險。
在提升模型可解釋性方面,推動可解釋AI(Explain able AI)的技術與流程,確保AI決策具備被審查和說明的可能。一旦模型判斷引發爭議,金融機構能提供清晰的依據和解釋,以符合法規要求並維護公眾信任。
總而言之,AI的引入正重塑金融業的風控版圖。面對這場技術驅動的變革,唯有風險管理技術與治理文化同步升級,才能支撐AI時代的金融韌性,確保金融體系在快速創新的浪潮中保持穩健。(作者為國立陽明交通大學資訊管理與財務金融學系專任教授、華南金控獨立董事)