封面故事 > 歷代精選 2025年11月

銀行如何精進建模解AI誤判

吳文蔚

來,國內多家銀行對可疑帳戶實施「預防性設控」,導致大量銀行帳戶無預警被鎖,加上解鎖流程繁瑣引發民眾強烈不滿。這波「帳戶凍結潮」主因是模型誤報(False Positive)太多而引發民怨。若要有效降低誤報,關鍵在於將人類審查的智慧變成可訓練的資料──精進防詐模型,讓詐欺無所遁形,正常用戶也將免於無辜受擾。

此波「帳戶凍結潮」近期迅速引發輿論關注,大量受影響民眾在社群平台發文抨擊,控訴自己「明明只是日常消費,結果帳戶無故被鎖,還得請假跑銀行解釋」,直呼銀行的防詐措施擾民。有人甚至誇張地說:「現在提款轉帳不方便,搞得好像被詐騙的是銀行、不是我們!」對此,金管會明確回應會要求銀行改善,但絕不會因此停止管控,並指出2025年9月警示帳戶首次出現負成長,且已有25家銀行的警示戶下降,顯示管控成效逐步浮現。

面對「AI誤鎖」爭議,金管會明確提出4項措施要求銀行進行改善:優化AI模型、設立專線與快速處理機制、提供24小時解控服務、落實風險分級提供低風險帳戶即時授權解控。換句話說,就是要求銀行提高模型的精確度,降低誤判率,同時要建立一套高效完善的解控機制。

回顧這次事件的起因,國內警示帳戶今年初突破15萬,金管會自今年3月起實施「警示帳戶觀察指標與督促改善機制」,訂出兩項觀察指標:一是當月銀行警示戶占所有國銀的比率,除以存款戶的市占率;二是單月警示戶新增戶數的月增率,除以警示戶新增戶數的同業平均月增率,若兩大指標的比率同時超過100%,就會被列入觀察名單。這項機制採逐月評核,一旦連續上榜,將被要求銀行董總到會說明,並在限期內提出改善計畫。部分銀行在壓力下,急於在短時間內把警示戶的占比與增率壓下來,實務上最能立竿見影的作法,就是把疑似樣態的帳戶先進行設控或凍結,再透過人工覆核釐清,於是便出現了大範圍的「帳戶凍結潮」與「解控排隊潮」。

金管會此舉實屬立意良善,其核心是想推動銀行將更多資源投入防詐,從監理端最新的訊息來看,警示戶明顯下滑,凸顯資源投入與管控正在產生積極效果。把視野放到國際,英國採行更為激進的制度,把詐騙損失的財務風險直接內化到金融機構的損益表,同樣出現銀行因「防詐過度」引發民怨。在動態對抗詐欺的環境下,誤判幾乎不可避免,短期的摩擦是把系統推上台階的必經之路,重點在於如何快速收斂達到穩定狀態。

從AI建模的角度來看,這波「帳戶凍結潮」的起因是模型誤報太多。一般來說,為了抓到更多可疑帳戶,我們會把模型門檻調低以提高召回率;但門檻越低,越多正常行為會被看成異常,導致誤鎖。表面上來看,我們可能會認為是設控門檻太嚴所致,更深層的關鍵其實在模型訓練本身。資料怎麼蒐集與清整、標籤如何定義、樣本怎麼抽取、特徵如何設計,決定了模型的最終成效。

誤報背後的技術原因,常見有三:首先是訓練數據偏誤,這類模型使用的是高度不平衡資料,即在交易資料裡,真正的詐欺只占極小比例。若僅以隨機抽樣訓練,即使模型判斷所有資料都正常,也能獲得不錯的整體準確率,因此要使用哪種抽樣方法或資料合成技術就非常關鍵,如果正常交易行為的樣本多元性不足,模型就容易產生誤判。

要讓AI學會分辨什麼是詐騙交易行為、什麼是正常交易行為,必須依靠人力對歷史資料下標籤來指引。然而,詐騙常在事後才被確認,若把尚未確認的樣本一律當作正常,模型就會被污染,導致AI以為的「正常」其實混入了未揭露的詐欺行為。另一種情況是,詐騙集團使用有混雜正常交易行為的帳戶進行交易,也會容易導致錯誤學習。因此,實務上需要先投入大量的人力進行完整下標,釐清每一筆交易背後的行為動機,才能進一步提升模型的準確率。

再好的模型也會有看走眼的時候,關鍵在於把人類審查的智慧變成可訓練的資料。想有效降低誤報,訓練資料必須「更乾淨,也更嚴格」。一方面,我們應刻意挑出最容易混淆的情境讓模型強化分辨力,例如一些合法交易但長相接近詐騙集團的交易模式,例如短期內快進快出、閒置戶突然活化、臨近節慶的大額收付等,讓模型在「真的詐欺」與「看起來像詐欺但其實正常」之間學會分界,才能從根本降低誤報。

此外,可以搭配「主動式學習」的技術,由模型挑出自己最不確定、最有學習價值的少量個案交由人工標註,在相同人力下能換得最大精進幅度。另一方面可以建立「誤鎖樣本資料庫」,把已確認的誤報個案定期回饋給訓練模型。實務上,可設計精簡的複核表單,要求審查人員對誤報個案勾選主要風險因子與裁量理由,從錯誤中學習優化,使每次誤判都能讓模型變得更聰明。

第二種誤報的原因,在於部分銀行加入鷹眼聯盟後,可能會選擇沿用聯盟提供的原始特徵資料,卻忽略了各行庫在資料定義、系統流程與客群結構上的異質性。實務上,事件時間的定義、資產管理規模的認列、通路分類乃至風險註記的產生流程,都可能截然不同。當定義不一致的欄位被當作同一個特徵輸入模型,就會在決策邊界產生系統性雜訊,容易造成誤判。

根據各方回饋,我們可以發現多數誤判來自存在短期偏離的群體,例如自由工作者的收入不規則、小商家的季節性收款、年底的紅包匯款行為等。若訓練資料沒有為每位客戶建立「個體化基準」,模型可能會把這些群體視為高風險。在訓練階段,應對每位客戶刻畫其歷史行為分布,常見金額範圍、常見對手方、交易節奏、週期性波動等,並將「相對於自己的偏離程度」納入特徵。當模型知道「這位客戶平常就這樣」,短期不尋常的波動便不會被過度解讀,同時還要進一步考慮特殊情境(節慶、災後募款等),動態調整靈敏度,針對不同類型的帳戶進行單獨建模,同時使用集成學習來強化預測結果。

第三個原因,是詐欺手法迭代速度遠超過多數銀行的模型開發節奏,若無法快速回饋誤鎖與新型態詐欺樣本,模型便會容易產生資料漂移(Data Drift)與概念漂移(Concept Drift)等問題。近期各家銀行紛紛強化打詐強度,必然會導致詐騙集團亂竄,嘗試使用不同家銀行的帳戶進行非法交易,或是使用各種不同的交易模式進行測試,因此短期內可預期各家銀行會出現與過往樣態不同的警示帳戶,導致模型的精確率和召回率同時下降。

跨行偵測是一個提升模型精度的對策。在金管會的積極推動下,國內多家銀行已朝組成聯合學習(Federated Learning)的方向邁進。這種不交換原始個資卻能共同訓練模型的方式,能納入跨行的關係與樣態,補齊缺失的拼圖。然而實務上仍有多重限制,例如各行資料特徵定義不一致、隱私保護削弱訊號、通訊與同步帶來訓練頻率受限與版本漂移等,難以直接作為最後決策,只能視為行內自建模型的補強。

模型上線只是起點,更重要的是在治理層面建立一套完整的機器學習運營(Machine Learning Operations, MLOps)機制,讓新樣本資料可以在小時級(甚至分鐘級)內完成資料清理、特徵工程、調參、模型驗證、部署及監控,大幅縮短模型重訓練及上架部署的時間。模型疊代的頻率應要由監控指標來驅動,而非以主觀判斷切換,除傳統的Precision/Recall外,應納入資料品質覆蓋率、特徵分布穩定度等,當偵測到關鍵漂移超過門檻,即自動觸發重訓練流程。

防詐與金融服務便利並非互斥,隨著銀行落實金管會所提出四大改善措施,各類誤鎖情況將大幅減少,整體防詐機制也能更有效運作。當然,這些改善離不開資源與人才支持。現階段部分銀行在AI防詐上的投入有限,優秀的AI人才多用於更賺錢的模型開發,導致防詐模型精進被忽視。銀行若能重新平衡資源,模型精準度便可迅速提升,讓詐欺無所遁形,正常用戶也將免於無辜受擾。(作者為台灣金融研訓院金融研究所助理研究員)