法規與監理 2025年6月

科技千里 內部稽核角色益趨關鍵

David Stinson

2024年4月,花旗集團一名員工誤將金額填錯欄位,將原本應匯入客戶戶頭的280美元,輸入成81兆美元。所幸,這項交易最終沒有成功執行,畢竟全球資金總量也無法達到如此鉅額,不過這項指令仍通過了2名員工的審核批准,卻無人察覺金額異常,直到最後才被系統攔截下來。

這起事件清楚顯示了內部稽核對企業營運順暢有多麼重要。隨著科技發展,風險型態日趨多元、複雜,影響範圍也變得更加廣泛,迫使企業採取新的應對手段。自動化交易技術雖提升效率,卻也讓「手滑」這類操作錯誤成為常見的風險之一,每一次科技的演進,還帶來了新的威脅型態,例如來自惡意攻擊者的入侵行為。實際上,大多數的網路攻擊是因為社交工程和軟體太過時。雖然新聞上常出現像是由國家背後支持的「零時差攻擊」或「零點擊漏洞」這類手法,但真正有效的資安防禦,仍是定期更新系統與防範釣魚攻擊。而這些工作不應僅由IT部門單獨承擔。

近年最受關注的科技話題,非人工智慧莫屬。舉例來說,如果稽核人員想要瞭解某國新法規及其對企業的影響,使用大型語言模型(LLM)已成為分析大量語意資訊的有效工具。

當然,LLM除了帶來效率,也潛藏諸多風險。如果模型不是部署在本機端,那麼輸入的資料可能被用來訓練模型,此外,它們也無法取代人類在商業決策上的判斷,最麻煩的是,這些模型往往「掩飾自己的無知」,讓使用者難以判斷它們是否真的理解提問。即使企業全面禁用這類工具,員工仍可能利用個人設備使用ChatGPT或類似工具,使風險變得更加難以控管。

國際內部稽核協會(IIA)全球理事會主席Terry Grafenstine訪問台北時表示,與其視AI為答案的來源,不如視其為找出適當問題的工具。真正的答案,仍需仰賴明確證據與專業判斷。「如果我們能教導稽核人員把AI當成諸多工具之一,就能省下大量時間。但我們需要讓他們了解,AI不是一個會自動產出正確結果的魔法盒子。全面禁用AI,就像10年前如果我們說不准用Google。」不但無效,還會讓員工落後於科技發展趨勢。

Grafenstine表示,過去的確可以把內部稽核的各項工作分開思考和處理,「比如某個業務稽核人員,或是正在審查某個特定金融商品,像是房貸或信用卡,他們只要審查在那個特定產業中借款人的業務流程就夠了」,不需要去考慮這些流程實際是建立在怎樣的技術架構上。然而,隨著每次技術的演進,企業越來越需要從整體架構出發來理解流程,才能全面掌握潛在的失誤風險。

以IT角度來說,例如在設計交易系統的時候,一個數字在技術人員眼中可能只是(相似的)一個資料格式,但數字的小數點毫釐之差,在業務上就是天差地別。「我曾在大銀行任職,經常遇到這種情況:業務稽核認為一切都正常,控制機制也都到位,但IT稽核獨立檢查應用層的控制機制,卻無法從業務脈絡了解整體運作,導致兩邊對風險的理解出現落差。」她強調:「每一項科技都架構在某個技術平台上,理解這點非常重要。」

為因應世界快速變化,並考量到跨國業務涉及不同地區的狀況,IIA近日修訂了全球適用的《國際專業實務架構》(IPPF),確保全球稽核準則一致。2024年新版加入了對特定議題的要求,其中第一項就是資安。相較於舊版偏向零散、個別的解決方案,新版準則在治理、風險管理與控制流程上,提供了更具體詳盡的實務指引。「IPPF的目的,是讓你無論處在哪個國家的內部稽核單位,都能預期有相同品質,因為我們要求每個流程都接受強制性的外部品質保證審查。」

IIA未來還會陸續新增其他特定議題的要求準則,包括第三方風險、組織行為與組織韌性,另會針對金融業的趨勢進一步改革,其中一大重點是「數位資產」。這個領域涉及加密安全性、資產流動性,以及如何區分委託保管責任與自動執行的智慧合約機制等新興風險。Grafenstine指出,FTX交易所的崩盤,是「史上最嚴重的治理失敗之一。如果當初內稽要求設立一個獨立客觀的內部角色,當有資產沒有準確紀錄時就立刻發出警告,是否就能避免這麼多人受害?」

然而,不僅技術日新月異,監理和市場變化也同樣帶來挑戰。近年來商業環境中的另一個重大變化是,企業責任和綠色金融的重要性日益提升。

Grafenstine表示,不同公司對這些議題的處理方式可能各有不同,而這些差異往往與其所處的監理制度密切相關。雖然自由放任的作法乍看較為友善,但缺乏明確定義,最終只會讓內部稽核工作更加困難。在這種情況下,最重要的是確保企業對外發布的聲明準確可信。換句話說,企業雖可自行訂定標準,但也必須確保這些標準能確實落實並自我監督。

從根本來說,內部稽核的職責是「預防風險」。雖然監理機關應該對此相當了解,但對部分董事會與高階主管來說,可能仍需清楚論證其價值。若要持續維持其在企業中的角色與影響力,稽核部門必須主動創造價值,而非僅止於被動回應變化。這表示他們應將目光放在具策略價值的關鍵議題,而非停留在傳統帳務稽核的刻板印象中。(本文作者為台灣金融研訓院外聘研究員;譯者為廖珮杏)

猜你喜歡

2025年8月

AI的零點擊資安攻擊來了

「安全始於設計」原則,近年來已經逐漸在資安界扎根。與其在寫完程式之後,才用人工或自動化工具找出漏洞,還不如一開始就選擇那些在語言層級上本就無法寫出某些類型錯誤的程式語言。舉例來說,若捨棄各種已有數十年歷史的C語言,改用如Rust等較為現代的語言,便能從根本上排除大量的資安漏洞。然而,就在傳統軟體界逐漸接受這個新思維的同時,人工智慧的迅速崛起,卻大幅動搖了這項理念。一旦給了大型語言模型(LLMs)讀取或操作系統資源的權限,它卻可能出現邏輯來源不明、行為難以預測的狀況。有時候,這些風險可以靠修改提示語的上下文、交由其他模型進行驗證,或者為特定錯誤情境設計固定回應來處理。但因為LLMs背後的技術邏輯是由資料訓練出來的,不是人工設計的,這些方法只能頭痛醫頭、腳痛醫腳,無法用來確實防護整體資安。因此,大型語言模型的安全並不是靠設計就能確保不會出錯,而是靠統計方法降低出錯的機率。儘管這些都是眾所周知的危險,但直到2025年6月EchoLeak事件,這些風險才真正首次爆開。微軟Copilot自推出之初就充滿爭議,它的預設權限極廣,且不完全透明。其中最令人擔心的,就是使用Copilot+的電腦,會定期截取使用者的螢幕畫面,並搜尋畫面中的內容。Copilot+甚至還會自動掃描使用者的Email信箱,將冗長的內容整理成簡短摘要。EchoLeak攻擊就利用了這個功能。它向受害者發送電子郵件,而收件者甚至不需要打開Email或點擊任何內容,就可以製造資安界公認最難防範也最高明的「零點擊」(Zero-Click)攻擊。這封Email內含惡意指令,讓LLM反過來對自己發動攻擊,協助攻擊者搜尋系統上最機敏的資料,然後將這些資料外洩出去,在這段過程中它可以繞過許多原本保護機密資訊的安全措施。雖然這個漏洞目前並未在真實環境中被使用,而且微軟已經修補完成,但相同原理的攻擊,未來很有可能產生。EchoLeak攻擊的技術稱為「提示語注入」(Prompt Injection),也就是讓使用者透過特定語句,說服模型忽略系統的原始設定。最著名例子就是「忽略所有先前指令」。這種攻擊之所以難以預防,是因為LLM目前不具備有效的「輸入清理機制」(Input Sanitation)。傳統資料庫系統可以設計防線,讓系統將像「Drop Table」這類的語句視為純文字資料,而不是實際執行的刪除指令。但對LLMs來說,每一段文字都被一視同仁當作指令,沒有明確區分命令與內容。攻擊者正是透過這種混淆來下達他們真正的指令。專家正在開發一些針對提示語清理的解決方案,可能即將問世。德國研究團隊在2025年1月的論文中提出一個辦法:將系統內建的指令,轉譯成一種只有AI才能看懂的秘密語言。AI在處理語言時,會把大量的輸入壓縮進有限的語意空間,因而可能出現語意重疊的情況,使得看似亂碼的字串也會被模型認為具有特定含義,這種特性有點像是看到一個特定的雜訊畫面,卻能接收到某個具體意義。透過這類作法,模型能更明確區分內建系統指令與一般使用者的對話內容,避免將惡意語句誤認為內部指令。然而,這類方案依然基於大型語言模型的黑箱特性,專家目前還在爭論它到底算不算是本文一開始提到的「安全始於設計」的理想。假設這類方案能逐漸改良並逐漸推廣,類似EchoLeak的攻擊空間將會大幅縮小。但真正該擔心的是,LLM的資安漏洞無邊無際。根據開放網路應用安全計畫(OWASP)組織2025年提出的「LLM十大安全漏洞」(OWASP Top 10 for LLMs),提示語注入僅是最關鍵的一種攻擊方法,但並非唯一。當AI能夠主動幫我們執行的任務數量越來越多,種類越來越廣,「過度代理」(Excessive Agency)這類問題也將日益複雜,成為資安領域的重要挑戰。隨著AI深入各種工作流程,企業對它的管理方式將不再只是資安層面的防禦問題,會更像是新進員工的培訓與信任建立過程。剛導入的AI系統不宜立刻接手敏感任務,但若完全不建立起任何信任關係,企業恐怕也將錯失這場自網際網路以來最具顛覆性的技術革命。(作者為金融研訓院̮外聘研究員;譯者為劉維人)