封面故事 > 歷代精選
2025年7月
代理式AI重塑金融場景
ChatGPT於2022年問世以來,生成式AI再度掀起全球對人工智慧應用的高度關注與期待。然而,早在2016年,台灣金融研訓院出版的《擴增時代》一書,便前瞻性地提出了代理式AI的概念。書中描繪了引人入勝的未來生活場景:當主人走進自駕車時,車內的代理式AI(Agentic AI)會即時規劃返家的最佳路線,同時與家中智慧冰箱的代理人聯繫,判斷是否需要補充食材。若有需求,車輛代理人便會向超市下訂單,並通知支付系統完成付款,讓主人能在「得來速」取貨時一切就緒。代理式AI也會根據預估抵達時間,事先通知家中智慧家電啟動冷氣、照明等設備,營造舒適的居家環境。
代理式AI是系統性的概念,是指整個具備自主決策能力的完整人工智慧代理系統架構和運作模式。它整合多種AI技術和多個AI代理人(AI Agent)的複合系統,能在複雜環境進行全域性的智慧決策與協調。
AI代理人是具體的執行單元,是實現代理式AI的核心組成元素,扮演系統中個別人工智慧代理人的角色。根據功能特性,AI代理人可以分為單一功能的專門代理人、多功能的綜合代理人,以及負責協調其他代理人的管理代理人。
AI代理人是構建代理式AI的基礎,也是發展代理式AI的第一步。隨著具備多樣化功能的AI代理人數量日益增加,代理式AI能夠應用的情境也日益成熟,為實現真正的智慧自動化奠定了堅實基礎。
根據Gartner顧問公司於2025年第1季,針對全球約100家金融機構對於建置代理式AI的調查分析,結果顯示約13%的銀行已導入相關系統,34%的銀行表示將在1年內完成建置,另有40%的銀行處於評估階段,僅9%的銀行明確表示尚無相關規劃。整體而言,幾乎所有受訪金融機構皆認為代理式AI將深刻影響金融產業的未來發展。
銀行過去已經投資各種自動化工具和人工智慧應用,運用於聊天機器人、虛擬助手和機器人流程自動化。最大的差別是,代理式AI不僅是自動執行工作,而且可以自主地做出代理決策。
另一方面,銀行對於使用代理式AI存在極大的擔憂及恐懼,對於AI治理和監督存在疑慮,主要來自於行業法規和企業文化的考量。儘管如此,銀行業仍積極嘗試進行相關應用,例如風險監控、交易詐欺偵測、反洗錢調查、客戶洞察以及個人化客戶體驗等領域。
在詐欺調查方面,代理式AI能協助蒐集所需帳戶資料,整合帳戶資訊,並針對監測模型所標記的詐欺交易或帳戶,產出摘要報告。在貸款作業方面,透過多個代理人支援從受理申請到核准的信貸全流程作業。在此應用場景中,人工監控與責任制度仍是關鍵,以確保決策具備可追溯性、解釋性與透明性。在銷售與服務方面,透過提供潛在客戶建議及回應客戶與產品相關問題,協助銷售團隊提升作業效率。面對多樣化的支付選項,代理式AI也能根據客戶的財務目標挑選最合適的支付工具,並隨著目標與環境變化,持續調整推薦策略。
代理式AI也能用於動態投資組合管理,可依據風險等級與既定指示主動管理投資組合,運用市場趨勢、商業狀況、財務報表與新聞等多元數據,提出投資組合調整建議。對高淨值人士而言,代理式AI能提供高度個人化的服務體驗,隨著越來越多富裕世代轉向數位通路,代理式AI將成為數位互動的重要橋樑。
代理式AI也能協助企業管理現金。財務主管需有效管理公司現金流,確保及時支付帳款與薪資,同時追求資金收益的最大化。在協助風險管理上,代理式AI可整合機器學習模型,追蹤並分析多元數據來源,預測潛在風險並即時做出應對決策。
代理式AI是整合各種AI科技與自動化技術的複合系統,因此成功實施的第一步是找到適切的應用場景,同時謹慎評估整個代理式AI應用中的每項工具是否都能準確無誤地發揮其功能。
目前金融機構已採用的人工智慧工具功能定位,包括大型語言模型(如ChatGPT),這是屬於生成式AI模型,能夠產生所需的文字內容,包括分析報告、回應客戶詢問、產生程式碼等,但無法自行執行或落實這些內容,本質上並非真正的代理式AI。
RPA(機器人流程自動化)則是流程控制工具,專門執行預先定義的作業流程,如資料輸入、產生報表、系統間資料轉移等,其本身不具備任何自主判斷或決策能力。
另一個是聊天機器人及虛擬助手,能夠進行特定主題的對話或提供特定資訊,如客戶服務、產品諮詢等,但缺乏自主決策能力,主要功能仍是輔助人類達成目標。
完整的代理式AI系統需要發展真正具備自主決策的能力,這樣才能夠根據各項工具的能力與限制,妥善整合運用這些工具,並自主地完成既定目標。換言之,代理式AI不僅是工具的使用者,更是整個系統的「大腦」,負責協調、判斷與執行的核心角色。
目前社會對於代理式AI的期望與實際之間存在著巨大落差,特別是在「自主決策」能力的可靠性,以及決策結果的可信度方面,都尚未達到完全可信賴的程度。因此,在導入代理式AI時,銀行應理解代理式AI運作原理及其局限性,務實地評估現有技術能力與應用限制,設定符合實際現況的目標,避免過度樂觀的期待導致專案失敗。
客戶對於AI自主決策的接受度也存在顯著差異,特別是在涉及資金安全與財務決策的金融服務領域,客戶對於將重要決策交由AI執行往往抱持謹慎態度。金融機構需要採取多元策略來建立客戶信任,首先,透過透明化的溝通機制,清楚說明AI的運作邏輯與決策依據;其次,持續提升AI服務的準確性與穩定性,以實際成效證明系統可靠性;再者,加強客戶的數位金融素養教育,幫助客戶理解AI技術的優勢與風險。
更重要的是,金融機構應建立彈性的服務模式,提供客戶選擇人類專家參與或完全接管的機制,讓客戶能夠根據自身需求與信任程度,決定代理式AI介入的深度。透過這種漸進式的信任建立過程,逐步提升客戶對代理式AI的接受度與依賴程度。
金融業長期面臨嚴格的監管環境,代理式AI的自主決策特性與傳統「人為決策、明確責任歸屬」的監理邏輯產生根本性衝突,特別是在涉及授信決策、投資建議、風險評估等核心業務時,監理機關對於決策的可解釋性、公平性與一致性要求極為嚴格。
當前主要的法遵挑戰包括:AI決策的「黑箱問題」如何滿足監管透明度要求、演算法偏見如何避免違反公平待客原則、自動化決策失誤的責任歸屬如何界定,以及如何確保AI系統符合不斷演進的法規要求。
因此,金融機構必須建立多層次的AI治理框架。首先是技術層面,建置「可解釋性AI」技術,確保每項決策都能提供清晰的邏輯推理過程;其次是流程層面,建立完整的決策軌跡記錄機制,包含輸入資料、決策邏輯、輸出結果的完整追蹤;再者是組織層面,設立專責的AI風險管理委員會,定期檢視AI系統狀況;最後是法規層面,與監管機關保持密切溝通,及時調整系統設計,以符合最新法規要求。
代理式AI的自主決策能力雖然大幅提升了營運效率,但同時也引入了傳統風險管理框架與未曾面臨的各種新型風險類別。
相較於傳統的人為決策風險,代理式AI的風險特徵具有「高速度、大規模、難預測」的特性,一旦發生錯誤決策,其影響範圍和損失規模可能在極短時間內急劇擴大,對金融機構的營運穩定性構成重大威脅。
因此,金融機構需要建立全方位的多層次風險控管機制,建立即時監控、異常偵測、人工介入機制,並預防系統性風險的影響。透過建構多層次的風險控管體系,金融機構才能在充分發揮代理式AI效能的同時,有效控制潛a在風險,確保業務營運的安全性與穩定性。
代理式AI系統需要整合多種技術平台和資料來源,包括核心銀行系統、風控模型、客戶關係管理系統、外部市場資料等,其技術架構的高度複雜性對金融機構的IT基礎設施與技術能力是前所未有的挑戰。
金融機構面臨的主要技術挑戰包括:資料格式標準化、系統間介面整合、即時資料處理能力以及確保各系統間的穩定連結與高效協作。此外,傳統金融系統往往建構於較為封閉的架構上,與現代AI技術所需的開放性、彈性化環境存在根本性差異。
因此,機構需要進行全面性的投資規劃,首先是系統現代化升級,建構支援代理式AI運作的雲端化、微服務化的技術架構;其次是人才培育策略,培養既懂金融業務又具備AI技術專長的複合型人才;最後是建立跨部門協作機制,確保業務需求與技術實現能夠有效銜接。
未來,隨著AI技術成熟度的持續提升和監理框架的逐步完善,代理式AI將在金融業扮演越來越關鍵的角色,成為推動產業數位轉型的重要驅動力。因此,金融機構應採取前瞻性的策略布局:一方面積極投入相關技術的研發與創新應用,培養內部AI專業人才,建構完整的技術生態系統;另一方面建立健全的AI治理機制,包括風控、倫理、法遵等面向,確保技術應用的安全與可控。(作者為台新金控資訊長)