法規與監理 2024年6月

資安是總體金融穩定的戰略關鍵

蘇建榮

際貨幣基金(International Monetary Fund, IMF)在今年4月所發表的最新一期《全球金融穩定報告》(Global Financial Stability Report)中明確指出,網路風險已是總體金融穩定所日益關注的課題。過去20年間,網路相關事件發生的次數日益頻繁,特別是從COVID-19疫情爆發後至今,網路資安(特別是惡意的網路攻擊)事件已增加為疫情前的2倍。在金融數位化加深的情勢下,金融業已是高度網路曝險的行業,過去20年間所有已通報的網路資安事件中,有20%對金融業造成影響,其中又以銀行業為網路攻擊的首要目標,其次是保險業及財富管理業。

這些金融資安事件除了造成個別金融機構的直接與間接損失外,更可能因此破壞金融資料的完整性與機密性,使金融資料系統無法運作,導致金融服務可靠性喪失、關鍵基礎設施服務無法替代及金融市場相互關聯性風險事件等問題發生,甚至蔓延為金融部門的網路擠兌、交易暫停、資產價格波動、流動性與倒閉風險,以及非金融部門的信用與市場損失,和關鍵基礎設施的服務中斷,造成國內信貸供給萎縮與金融中介服務中斷等總體金融不穩定現象。2023年11月,中國工商銀行(ICBC)在美國的子公司中國工商銀行金融服務公司(ICBCFS)受勒索軟體攻擊而中斷金融商品交易的清算服務,導致美國國債交易市場一度暫停,便是一個明顯的例證。

就我國現階段金融資訊安全的重要性而言,賴總統已數度公開表示金融安全即是國家安全,國家必須著眼於金融資安的強化。換言之,金融資安已是國家安全戰略的一環。國內金融業目前正值數位轉型的關鍵時刻,特別是自COVID-19疫後,金融數位化、金融科技創新與AI人工智慧的蓬勃發展,以及地緣政治衝突帶來的資安威脅,金融業的網路曝險程度更甚以往。因此,為強化金融業資安防護能力,以確保金融系統營運不中斷,提供民眾安心交易環境,金管會乃審視金融科技發展趨勢、國內外資安情勢變化及實務運作情形,並參考國際資安監理政策,先後於2020年8月及2022年12月發布「金融資安行動方案」1.0版及2.0版,作為金融資安的執行準據。惟就金融資安即國安的觀點而論,要確保總體金融的穩定與韌性,必須要有以下的金融資安戰略思維:

第一,完整建構跨產業的資安聯防系統,延伸金融穩定的戰略縱深。試想,當國內重要策略性產業受到資安攻擊而中斷生產時,它會對金融市場(如股票市場)造成如何的衝擊。

第二,積極發展國內資安相關產業,提升資安維護第三方供應者風險管理效能。金融資安維護常需依賴第三方供應者的支援,相關資安產業的發展可提供即時資安事件支援與有效降低第三供應者帶來的資安風險。

第三,善用台灣現有的國際地位與產業影響力,鏈結國際資安防護資源,強化金融資安的布建與備援,確保非常時期的金融穩定與韌性。

猜你喜歡

2025年8月

AI的零點擊資安攻擊來了

「安全始於設計」原則,近年來已經逐漸在資安界扎根。與其在寫完程式之後,才用人工或自動化工具找出漏洞,還不如一開始就選擇那些在語言層級上本就無法寫出某些類型錯誤的程式語言。舉例來說,若捨棄各種已有數十年歷史的C語言,改用如Rust等較為現代的語言,便能從根本上排除大量的資安漏洞。然而,就在傳統軟體界逐漸接受這個新思維的同時,人工智慧的迅速崛起,卻大幅動搖了這項理念。一旦給了大型語言模型(LLMs)讀取或操作系統資源的權限,它卻可能出現邏輯來源不明、行為難以預測的狀況。有時候,這些風險可以靠修改提示語的上下文、交由其他模型進行驗證,或者為特定錯誤情境設計固定回應來處理。但因為LLMs背後的技術邏輯是由資料訓練出來的,不是人工設計的,這些方法只能頭痛醫頭、腳痛醫腳,無法用來確實防護整體資安。因此,大型語言模型的安全並不是靠設計就能確保不會出錯,而是靠統計方法降低出錯的機率。儘管這些都是眾所周知的危險,但直到2025年6月EchoLeak事件,這些風險才真正首次爆開。微軟Copilot自推出之初就充滿爭議,它的預設權限極廣,且不完全透明。其中最令人擔心的,就是使用Copilot+的電腦,會定期截取使用者的螢幕畫面,並搜尋畫面中的內容。Copilot+甚至還會自動掃描使用者的Email信箱,將冗長的內容整理成簡短摘要。EchoLeak攻擊就利用了這個功能。它向受害者發送電子郵件,而收件者甚至不需要打開Email或點擊任何內容,就可以製造資安界公認最難防範也最高明的「零點擊」(Zero-Click)攻擊。這封Email內含惡意指令,讓LLM反過來對自己發動攻擊,協助攻擊者搜尋系統上最機敏的資料,然後將這些資料外洩出去,在這段過程中它可以繞過許多原本保護機密資訊的安全措施。雖然這個漏洞目前並未在真實環境中被使用,而且微軟已經修補完成,但相同原理的攻擊,未來很有可能產生。EchoLeak攻擊的技術稱為「提示語注入」(Prompt Injection),也就是讓使用者透過特定語句,說服模型忽略系統的原始設定。最著名例子就是「忽略所有先前指令」。這種攻擊之所以難以預防,是因為LLM目前不具備有效的「輸入清理機制」(Input Sanitation)。傳統資料庫系統可以設計防線,讓系統將像「Drop Table」這類的語句視為純文字資料,而不是實際執行的刪除指令。但對LLMs來說,每一段文字都被一視同仁當作指令,沒有明確區分命令與內容。攻擊者正是透過這種混淆來下達他們真正的指令。專家正在開發一些針對提示語清理的解決方案,可能即將問世。德國研究團隊在2025年1月的論文中提出一個辦法:將系統內建的指令,轉譯成一種只有AI才能看懂的秘密語言。AI在處理語言時,會把大量的輸入壓縮進有限的語意空間,因而可能出現語意重疊的情況,使得看似亂碼的字串也會被模型認為具有特定含義,這種特性有點像是看到一個特定的雜訊畫面,卻能接收到某個具體意義。透過這類作法,模型能更明確區分內建系統指令與一般使用者的對話內容,避免將惡意語句誤認為內部指令。然而,這類方案依然基於大型語言模型的黑箱特性,專家目前還在爭論它到底算不算是本文一開始提到的「安全始於設計」的理想。假設這類方案能逐漸改良並逐漸推廣,類似EchoLeak的攻擊空間將會大幅縮小。但真正該擔心的是,LLM的資安漏洞無邊無際。根據開放網路應用安全計畫(OWASP)組織2025年提出的「LLM十大安全漏洞」(OWASP Top 10 for LLMs),提示語注入僅是最關鍵的一種攻擊方法,但並非唯一。當AI能夠主動幫我們執行的任務數量越來越多,種類越來越廣,「過度代理」(Excessive Agency)這類問題也將日益複雜,成為資安領域的重要挑戰。隨著AI深入各種工作流程,企業對它的管理方式將不再只是資安層面的防禦問題,會更像是新進員工的培訓與信任建立過程。剛導入的AI系統不宜立刻接手敏感任務,但若完全不建立起任何信任關係,企業恐怕也將錯失這場自網際網路以來最具顛覆性的技術革命。(作者為金融研訓院̮外聘研究員;譯者為劉維人)