金融科技
2026年5月
高齡金融的銀行難題
高齡金融於未來數十年是台灣金融市場必須正視的議題。內政部統計,我國已於2025年底邁入超高齡社會,國家發展委員會亦推估至2070年將有逾46%的人口超過65歲。伴隨著人口結構逐漸老化,整體社會的財富可能會更高度集中於銀髮族群,可預期我國未來會有相當多有關高齡客戶之金融服務需求,新科技的應用也許能為高齡金融服務提供協助並強化消費者保護,但也可能衍生新的法律與規範問題。
高齡客戶明顯常會出現一些青中壯年族群較少出現的狀況,進而創造出獨特的消費者保護議題。例如,可能因年齡增長而出現行動不便的狀況,也可能出現感官知覺上(如視力或聽力)不同程度的退化,間接影響高齡客戶接受金融服務及相關資訊的能力,也挑戰金融消費者保護的基本原則及理念(如知情同意)。銀行基於網際網路等基礎建設(如網路銀行)也許可提供一些解決方案,但如何解決高齡客戶潛在的數位落差問題,以及如何在網路上落實法令遵循及消費者保護(例如有效地線上說明產品內容及進行認識客戶程序),則需進一步思考。
高齡金融可能面臨的最大挑戰,應該是高齡客戶心智及判斷能力喪失(如失智)。若客戶實際上已欠缺法律上的意思表示能力,此會影響客戶是否能有效認知及判斷金融服務的內容及風險,以及客戶是否能有效的同意其所從事的金融決定或交易,並直接挑戰金融消費者法制的基本前提假設。
《民法》雖然設計監護或輔助宣告制度,但出於各種原因,本人或家屬不見得會向法院聲請取得這類宣告,因此,銀行仍常須在第一線判斷高齡客戶的心智狀況及為其有效意思表示的能力。雖然銀行公會在主管機關的責成下,頒布「銀行服務失智者或疑似失智者之實務參考作法」,其基本原則是推定高齡客戶仍有行為能力,但銀行應提供最大的協助並避免偏見,雖然此符合法律制度的基本設定,但並不當然會使銀行免於高齡金融服務的法律風險,也無法阻止客戶的家屬事後爭執該高齡客戶本人所做的決定,例如,家屬爭執為何仍讓長輩進行大額匯款給其他家屬或甚至第三人。
根本性的問題是,高齡客戶的年齡範圍相當大,依現行法制,超過65歲的客戶皆被定義為高齡客戶(國人的平均年齡約81歲),但即使是銀髮族,失智風險隨著年齡層及個人狀況亦會有相當的差異,有90多歲仍精神健朗思路清晰者,但也有不到70歲即失智者,此會增加銀行判斷客戶的心智狀況及能力的困難,增加法律上設計對高齡客戶之保護法制的挑戰。
此外,客戶是否失智或有認知上的困難尚需專業醫療判斷,但銀行行員並不具有相關專業,即使依前揭參考作法來行為,仍有相當可能誤將正常的高齡客戶判斷為失智(即偽陽性),或誤將有失智的客戶判斷為正常(即偽陰性),並進一步於提供金融服務或進行金融交易時,衍生後續的客訴或法律糾紛。
在人工智慧(AI)技術長足進步的當下,銀行是否能利用AI來協助行員進行高齡客戶金融服務?此又可分兩個面向來觀察,一方面而言,以失智風險為例,銀行也許可透過AI或其他類似的電腦系統,來協助第一線行員進行客戶失智風險判斷,也可協助中後台人員做查核與確認;意即,結合醫療科技的發展,在成本合理且不違反醫療法令的前提下,利用AI輔助銀行辨識客戶之失智風險以及決定是否啟動後續的確認及協助程序,也許會較完全仰賴行員個人的觀察判斷更為精準。
另一方面,是否有可能透過AI代理人(AI agent)或AI機器人(chatbot)等機制,來協助高齡客戶取得金融服務。若是客戶自行利用AI服務(如使用ChatGPT)來協助其從事金融交易時,則銀行必須決定此際是否可認為客戶若已取得適當的協助,從而應尊重其所做的決定(即便可能只是依據ChatGPT的回答)?反之,若使用銀行所提供的AI協助服務,銀行行員能否僅依AI的判斷,來作為提供服務的最終決定?
這些問題的答案,顯然地必須視情況而定。我國已通過《人工智慧基本法》,金融主管機關亦公布「金融業運用人工智慧(AI)指引」,作為AI金融服務的基本規範框架,但就算沒有更明確的法令或指引,銀行皆不應理所當然地認為AI工具所提供的建議,就當然一定合理或合法,也不見得因為有AI的輔助,就一定可以避免或免除銀行未來的法律風險,換言之,AI之輔助未必能有效免除銀行潛在的法律風險管理責任,例如銀行提供的AI工具給出不適當的建議,或銀行發現AI工具所提供的建議明顯有錯誤時,銀行不見得能推託責任。未來,如何避免模型設定的偏見、控制AI判斷錯誤的風險,並減少與控制AI幻覺的問題,以及如何有效結合人力與人工智慧來提醒客戶體驗並強化高齡客戶的金融消費者保護,是伴隨科技發展,銀行業及主管機關必須與時俱進地調整。
相對地,若客戶堅持依賴AI工具下決策,銀行最安全的作法也許是在認定其不適當時拒絕交易,但易引發客訴,若銀行決定繼續交易,實務界則應思考在符合法律規定的前提下確保消費者保護機制發揮功能,以及減少銀行的法律風險,這將是未來的核心課題。(作者為台灣大學法律學院副教授)