法規與監理 2025年3月

銀行責任地圖自律規範先行

張凱傑

行公會訂定「銀行業導入責任地圖制度自律規範」,經金管會同意備查,已自今年元旦起實施,初期採自律規範先行,未來再考慮正式納入法規。

近年來,全球金融市場因多起重大違規事件,引發監管機關對於金融機構治理與高階管理層問責的關注。金管會表示,雖已針對銀行業者的銷售行為、授信管理及內部風控進行多次裁罰,但單純對機構處罰,還是無法有效遏止個人違規行為。因此便逐步思考擴大懲處對象,將責任從機構層級延伸至個別高階管理人員,進而促成「責任地圖」(Responsibility Map)制度的推動。

責任地圖制度的核心目標,在於提升金融機構內部治理與問責機制,確保高層管理人員對業務決策與內控風險負起明確責任。此前,金管會就已針對銀行業辦理高資產財管業務,要求建立相關業務的責任地圖;新制範圍更廣,銀行業者甚至得全面盤點內部組織分工及規章、釐清責任歸屬,並進行必要調整,相關董總及高管人員更須簽署「責任聲明書」。

普華商務法律事務所合夥律師李裕勳指出,責任地圖制度的核心概念,首重問責對象的明確化,釐清各管理層級的職責,避免事發後推諉責任。除針對董事長、總經理及總行級主管,部分銀行甚至將分行經理也納入適用範圍。其二是落實誠信經營原則,要求銀行業者建立內部誠信經營架構,將誠信管理納入經營策略;並設立內部懲處機制,確保違規行為能夠即時被處理。

再者是監理法規的適用性。《銀行法》第61-1條授權主管機關可解除銀行經理人職務,但對於總經理以下管理層的懲處權限仍存在解釋空間,因此,現階段先透過「自律規範」,由銀行內部先行執行問責機制,並將視執行狀況決定未來是否進一步正式納入法規。

然而,比較國際經驗與制度,銀行公會所參考的英國高階管理人制度(SMR),當時的時空背景,主要是在2012年倫敦同業拆款利率操縱事件後,英國政府成立了專門委員會以檢討並提出改進建議,包括設立全新的高階管理人員規範架構,以確保在違法事件發生時,能夠追究個別高階管理人員的責任,並提升公司治理的透明度和問責性,且問責範圍涵蓋整體金融產業,不僅限於銀行業。

除了英國,香港、新加坡及澳洲近年亦陸續實施高管人員的適任性審查與風險承擔規範,強調金融機構內部的監督與自律管理。

儘管台灣銀行業者已實施責任地圖,但仍面臨多項挑戰。李裕勳在輔導業者導入的實務經驗中發現,業者首先面臨的是,業者過往較少將高管人員的責任具體紀錄在正式的內控文件中,因此如何明確釐清各高管人員的責任內容,即為業者的一大挑戰。其次,由於責任地圖後續將連結到高管人員的個人責任,因此,業者亦需費心處理責任地圖與問責制度的定位,避免與既有人事獎懲機制產生衝突,同時亦應考量高管人員在程序面與實體面的權利保障。再者,未來若將該制度納入法規,則須考量與現行監管機制的銜接問題,以及銀行內部懲處高管後,可能引發的法律訴訟風險。

目前,台灣的金融監管仍以「法規遵循導向監理」為主,英國及新加坡則採「風險導向監理」,更著重於防範重大違規行為。資誠聯合會計師事務所金融產業服務營運長吳偉臺亦提醒,責任地圖自律規範要求稽核單位高層納入問責範圍,亦帶來內部稽核部門角色矛盾的課題,以及稽核機制的公正性與獨立性。

由於英國實施SMR後,不僅強化了對高階管理人員的問責制,也促進了整個金融機構內部文化的改變,推動所有層級員工對其行為負責。吳偉臺亦有3點建議。一、強化金融機構建立「信賴為本」的經營文化,確保高管不僅關注業績,也承擔風險管理責任。二、參照英國FCA的做法,於制度推行一段時間後(例如2到3年後),透過業者訪談或問卷的方式了解制度實際落實的狀況,再決定是否以及如何從法規面與監理面持續精進與優化既有制度。三、完善監管機制,若未來考慮將責任地圖納入法規,需確保法制完整性,避免與既有制度重疊。

總體而言,責任地圖制度的實施,代表台灣金融監管邁向更精細化與個人責任強化的趨勢。

然而,在監管與營運效率之間取得平衡,仍是金融機構與主管機關需共同努力的課題。未來,業者亦可善用AI與大數據技術提升監管效率,降低人為錯誤,並強化銀行風險識別的治理體質。隨著制度的成熟與調整,台灣金融業有望建立更透明且穩健的管理機制,提升市場信任度與國際競爭力。

猜你喜歡

2025年8月

AI的零點擊資安攻擊來了

「安全始於設計」原則,近年來已經逐漸在資安界扎根。與其在寫完程式之後,才用人工或自動化工具找出漏洞,還不如一開始就選擇那些在語言層級上本就無法寫出某些類型錯誤的程式語言。舉例來說,若捨棄各種已有數十年歷史的C語言,改用如Rust等較為現代的語言,便能從根本上排除大量的資安漏洞。然而,就在傳統軟體界逐漸接受這個新思維的同時,人工智慧的迅速崛起,卻大幅動搖了這項理念。一旦給了大型語言模型(LLMs)讀取或操作系統資源的權限,它卻可能出現邏輯來源不明、行為難以預測的狀況。有時候,這些風險可以靠修改提示語的上下文、交由其他模型進行驗證,或者為特定錯誤情境設計固定回應來處理。但因為LLMs背後的技術邏輯是由資料訓練出來的,不是人工設計的,這些方法只能頭痛醫頭、腳痛醫腳,無法用來確實防護整體資安。因此,大型語言模型的安全並不是靠設計就能確保不會出錯,而是靠統計方法降低出錯的機率。儘管這些都是眾所周知的危險,但直到2025年6月EchoLeak事件,這些風險才真正首次爆開。微軟Copilot自推出之初就充滿爭議,它的預設權限極廣,且不完全透明。其中最令人擔心的,就是使用Copilot+的電腦,會定期截取使用者的螢幕畫面,並搜尋畫面中的內容。Copilot+甚至還會自動掃描使用者的Email信箱,將冗長的內容整理成簡短摘要。EchoLeak攻擊就利用了這個功能。它向受害者發送電子郵件,而收件者甚至不需要打開Email或點擊任何內容,就可以製造資安界公認最難防範也最高明的「零點擊」(Zero-Click)攻擊。這封Email內含惡意指令,讓LLM反過來對自己發動攻擊,協助攻擊者搜尋系統上最機敏的資料,然後將這些資料外洩出去,在這段過程中它可以繞過許多原本保護機密資訊的安全措施。雖然這個漏洞目前並未在真實環境中被使用,而且微軟已經修補完成,但相同原理的攻擊,未來很有可能產生。EchoLeak攻擊的技術稱為「提示語注入」(Prompt Injection),也就是讓使用者透過特定語句,說服模型忽略系統的原始設定。最著名例子就是「忽略所有先前指令」。這種攻擊之所以難以預防,是因為LLM目前不具備有效的「輸入清理機制」(Input Sanitation)。傳統資料庫系統可以設計防線,讓系統將像「Drop Table」這類的語句視為純文字資料,而不是實際執行的刪除指令。但對LLMs來說,每一段文字都被一視同仁當作指令,沒有明確區分命令與內容。攻擊者正是透過這種混淆來下達他們真正的指令。專家正在開發一些針對提示語清理的解決方案,可能即將問世。德國研究團隊在2025年1月的論文中提出一個辦法:將系統內建的指令,轉譯成一種只有AI才能看懂的秘密語言。AI在處理語言時,會把大量的輸入壓縮進有限的語意空間,因而可能出現語意重疊的情況,使得看似亂碼的字串也會被模型認為具有特定含義,這種特性有點像是看到一個特定的雜訊畫面,卻能接收到某個具體意義。透過這類作法,模型能更明確區分內建系統指令與一般使用者的對話內容,避免將惡意語句誤認為內部指令。然而,這類方案依然基於大型語言模型的黑箱特性,專家目前還在爭論它到底算不算是本文一開始提到的「安全始於設計」的理想。假設這類方案能逐漸改良並逐漸推廣,類似EchoLeak的攻擊空間將會大幅縮小。但真正該擔心的是,LLM的資安漏洞無邊無際。根據開放網路應用安全計畫(OWASP)組織2025年提出的「LLM十大安全漏洞」(OWASP Top 10 for LLMs),提示語注入僅是最關鍵的一種攻擊方法,但並非唯一。當AI能夠主動幫我們執行的任務數量越來越多,種類越來越廣,「過度代理」(Excessive Agency)這類問題也將日益複雜,成為資安領域的重要挑戰。隨著AI深入各種工作流程,企業對它的管理方式將不再只是資安層面的防禦問題,會更像是新進員工的培訓與信任建立過程。剛導入的AI系統不宜立刻接手敏感任務,但若完全不建立起任何信任關係,企業恐怕也將錯失這場自網際網路以來最具顛覆性的技術革命。(作者為金融研訓院̮外聘研究員;譯者為劉維人)