在403強震中,那顆重達660公噸的金黃色阻尼器穩定了台灣最高樓,讓台北101再次度過強震挑戰,繼續迎向未來。對於地處颱風地震帶的台灣而言,建築技術的突破,已經強化了我們面對天災的應變能力,但對於同樣身處地緣政治衝突熱點的台灣而言,我們是否也該開始架構屬於台灣金融體系的金融阻尼器,來為台灣下階段的金融發展建構出更穩定的基礎?
放眼國際格局,美蘇冷戰所形成的國際秩序與金融體系,在蘇聯解體後,美國曾一度獨領風騷的為全球帶來穩定與和平。然而,金融海嘯後,中國與俄羅斯對既有秩序的挑戰,卻鬆動了世界穩定態勢的根基,讓原本懷抱和平美夢的歐洲與東亞諸國調整國防方向。同樣的,面對天天騷擾我國領空領海的共機共艦,台灣當然不能掉以輕心,更要時時防備各種可能的烽煙再起。
畢竟,除了國防考量外,台灣的經濟發展更是依賴世界的和平,例如我國原油來源極大依賴荷姆茲海峽的開放運作,一旦有所變動,所造成的經濟衝擊程度不言可喻。而且,不論是各種冷戰熱戰,反映在金融市場上,都是金融商品劇升驟降的價格波動,將影響金融機構資產負債表的穩健程度,進而改變整體金融系統的安定。所以,對於地緣政治風險的考量,也是整體金融系統穩定與否的重要關鍵。
只是,目前我們國內的金融風險研究仍少有此類考量,以最重要的「中華民國金融穩定報告」為例,在「潛在影響金融體系之總體環境」章節中,仍是以「國際金融情勢」、「國內總體環境」、「國內外總體環境之綜合評估」等3個面向來分析,對於地緣政治風險著墨仍然有限。而其他國內金融集團的研究也同樣偏重產業經濟分析,對於會影響金融安定的地緣政治分析內容探討相當有限,更遑論思索應變計畫的擬定。
特別是在面對今年美國大選的撲朔選情,中國經濟下行的政治決策,烏克蘭護國戰爭的終局結果⋯⋯這些都是攸關台灣金融穩定的議題,實在值得整合分析,為台灣金融未來的可能風險投石探路,也為台灣龐大的資產量身考量風險對策。
所以,台灣金融研訓院今年加設了金融穩定研究中心,期望藉由專責人員就地緣政治各項風險,匯集各方專業思索草擬應變計畫,更期望作為產官學討論平台,略盡智庫綿薄。
就如同防疫初期成果,這次台灣抗震表現同樣驚豔世界。對照之下,台灣金融產業人才濟濟,真心期待共同建置出「台灣金融的風險阻尼器」,讓台灣金融體系在資訊情蒐、情境模擬、對策演練上,都能逐步完備,強化台灣金融體系韌性,也讓世界永遠看見台灣。當然,我們也期望這樣的風險阻尼器永遠不要用到,就讓它成為後代子孫參觀的無用遺跡,那也是另一個更好的結局。
巨大公司被扣查,揭示移工抵債式就業的制度性風險。人權治理已從社會責任躍升為國際市場的入門檻與地緣政治工具。
LVMH集團旗下頂級羊絨品牌Loro Piana,標榜「工藝神話」的品牌敘事卻與人權現實產生極端落差,也揭露義大利工藝與人權侵害的結構性矛盾。
「安全始於設計」原則,近年來已經逐漸在資安界扎根。與其在寫完程式之後,才用人工或自動化工具找出漏洞,還不如一開始就選擇那些在語言層級上本就無法寫出某些類型錯誤的程式語言。舉例來說,若捨棄各種已有數十年歷史的C語言,改用如Rust等較為現代的語言,便能從根本上排除大量的資安漏洞。然而,就在傳統軟體界逐漸接受這個新思維的同時,人工智慧的迅速崛起,卻大幅動搖了這項理念。一旦給了大型語言模型(LLMs)讀取或操作系統資源的權限,它卻可能出現邏輯來源不明、行為難以預測的狀況。有時候,這些風險可以靠修改提示語的上下文、交由其他模型進行驗證,或者為特定錯誤情境設計固定回應來處理。但因為LLMs背後的技術邏輯是由資料訓練出來的,不是人工設計的,這些方法只能頭痛醫頭、腳痛醫腳,無法用來確實防護整體資安。因此,大型語言模型的安全並不是靠設計就能確保不會出錯,而是靠統計方法降低出錯的機率。儘管這些都是眾所周知的危險,但直到2025年6月EchoLeak事件,這些風險才真正首次爆開。微軟Copilot自推出之初就充滿爭議,它的預設權限極廣,且不完全透明。其中最令人擔心的,就是使用Copilot+的電腦,會定期截取使用者的螢幕畫面,並搜尋畫面中的內容。Copilot+甚至還會自動掃描使用者的Email信箱,將冗長的內容整理成簡短摘要。EchoLeak攻擊就利用了這個功能。它向受害者發送電子郵件,而收件者甚至不需要打開Email或點擊任何內容,就可以製造資安界公認最難防範也最高明的「零點擊」(Zero-Click)攻擊。這封Email內含惡意指令,讓LLM反過來對自己發動攻擊,協助攻擊者搜尋系統上最機敏的資料,然後將這些資料外洩出去,在這段過程中它可以繞過許多原本保護機密資訊的安全措施。雖然這個漏洞目前並未在真實環境中被使用,而且微軟已經修補完成,但相同原理的攻擊,未來很有可能產生。EchoLeak攻擊的技術稱為「提示語注入」(Prompt Injection),也就是讓使用者透過特定語句,說服模型忽略系統的原始設定。最著名例子就是「忽略所有先前指令」。這種攻擊之所以難以預防,是因為LLM目前不具備有效的「輸入清理機制」(Input Sanitation)。傳統資料庫系統可以設計防線,讓系統將像「Drop Table」這類的語句視為純文字資料,而不是實際執行的刪除指令。但對LLMs來說,每一段文字都被一視同仁當作指令,沒有明確區分命令與內容。攻擊者正是透過這種混淆來下達他們真正的指令。專家正在開發一些針對提示語清理的解決方案,可能即將問世。德國研究團隊在2025年1月的論文中提出一個辦法:將系統內建的指令,轉譯成一種只有AI才能看懂的秘密語言。AI在處理語言時,會把大量的輸入壓縮進有限的語意空間,因而可能出現語意重疊的情況,使得看似亂碼的字串也會被模型認為具有特定含義,這種特性有點像是看到一個特定的雜訊畫面,卻能接收到某個具體意義。透過這類作法,模型能更明確區分內建系統指令與一般使用者的對話內容,避免將惡意語句誤認為內部指令。然而,這類方案依然基於大型語言模型的黑箱特性,專家目前還在爭論它到底算不算是本文一開始提到的「安全始於設計」的理想。假設這類方案能逐漸改良並逐漸推廣,類似EchoLeak的攻擊空間將會大幅縮小。但真正該擔心的是,LLM的資安漏洞無邊無際。根據開放網路應用安全計畫(OWASP)組織2025年提出的「LLM十大安全漏洞」(OWASP Top 10 for LLMs),提示語注入僅是最關鍵的一種攻擊方法,但並非唯一。當AI能夠主動幫我們執行的任務數量越來越多,種類越來越廣,「過度代理」(Excessive Agency)這類問題也將日益複雜,成為資安領域的重要挑戰。隨著AI深入各種工作流程,企業對它的管理方式將不再只是資安層面的防禦問題,會更像是新進員工的培訓與信任建立過程。剛導入的AI系統不宜立刻接手敏感任務,但若完全不建立起任何信任關係,企業恐怕也將錯失這場自網際網路以來最具顛覆性的技術革命。(作者為金融研訓院̮外聘研究員;譯者為劉維人)