法規與監理 2024年4月

AI會誘發下一場系統性金融風險嗎?

ChatGPT橫空出世的省思:會泡沫化嗎?
撰文:陳鴻達

2023ChatGPT橫空出世後,帶來一波股市AI熱潮。然而各國金融監理機關卻不約而同的,陸續對AI可能危及系統性金融風險提出示警。這些擔憂可分為兩大類,第一類是AI演算法造成投資行為的「羊群效應」(Herding Behavior),加劇市場波動;外是目前股市的AI概念股過熱,應注意避免重蹈當年的網路泡沫。

美國證券交易委員會(SEC)主席Gary Gensler2021年就職,之前他是麻省理工學院的教授,並曾在2020年發表《深度學習與金融穩定》論文,指出AI的發展與運用對金融穩定的威脅。例如使用AI作為投資決策工具時,由於這些演算法使用相同的模式來訓練,因此會發生「學徒效應」(Apprentice Effect),造成大家同買、同賣的現象。再加上目前高頻交易的盛行,將推升市場「閃崩」(Flash Crashes)的風險。同樣的,金融監理機關若是以AI來作為監理輔助工具,也會造成監理偏差,影響投資行為。Gary Gensler20237月的一場公開演講中再次闡述這個風險,並認為AI可能造成下一場的大型系統性金融風險(Next Big Systemic Risk)。

一張含有 文字, 字型, 螢幕擷取畫面, 設計 的圖片

自動產生的描述

葉倫首次將AI列為影響金融風險因素

202312月美國財政部在公布《金融穩定監督委員會年報》(Financial Stability Oversight Council Annual Report)時,財政部長葉倫的發言除了針對當前最受矚目的通膨與烏俄戰爭議題之外,特別指出AI對金融穩定的影響。指出,AI工具往往非常技術性與不透明,不容易解釋,也不容易監測其缺點。假如金融業或監理機關對AI了解,那就很可能造成偏差或不正確的結果。並且AI往往依賴大量的外部資料庫,或是第三方供應商,也加深個資保護與資安風險的疑慮。當天SEC主席Gary Gensler也出席該發表會,重申他之前的看法。由於美國各界對此均有共識,因此202310月美國總統發布行政命令來規範AI的使用﹝圖2﹞,以達到安全、信任的使用AI技術,降低風險。


事實上,在大西洋彼岸的歐盟央行也有相同關切,如202312月英格蘭銀行發布的金融穩定報告,也提到AI與機器學習可能誘發英國金融穩定的疑慮。雖然過去十幾年來,AI與機器學習技術廣泛被運到反洗錢與防詐,但近來由於相關技術的發展以及計算成本的降低,使得運用層面更廣,此議題也更不容忽視。雖然個別企業使用AI技術所造成的風險相對很低,但假如廣泛被使用後就容易出現系統性金融風險的問題。因為即使個金融機構用AI做很小的決定,但因「從效果」(Herding Effect)就可能造成傾斜。由於很少人了解AI是如何運作,使得金融監理機關不易要求業者如何「負責任」的使用AI技術。但業者若不了解AI如何運作,卻廣泛使用高頻交易與高運算技術,在瞬間進行大量交易的風險可想而知。

ECB憂心 AI概念股飆漲造成泡沫化

歐盟央行(ECB)在202311月的金融穩定報告中,對AI的擔心則有兩方面。包括AI與金融服務數位化發展將放大與加速金融穩定風險,特別是交易工具App的盛行與便捷,再加上社群媒體推波助瀾的效果,都將加大市場不合理的波動。外,歐盟央行還擔心,股市所謂的AI概念股飆漲,將造成資泡沫化的疑慮,還比較這些AI概念股的本益比與當年網路泡沫化高峰時的達康概念股。雖然在歐盟的AI概念股並不像在美國掛牌的那些公司,有過熱的疑慮,但歐盟央行還是擔心美國股市資泡沫化之後,對歐洲股市的外溢衝

從歐盟央行所整理的﹝圖3﹞可知,當年網路泡沫最高峰時,有6成的網路公司本益比在50倍以上,而目前AI概念股則還不到2成。當年有高達6成的網路公司股價淨比超過10倍以上,目前則還不到4成的公司。雖然目前AI概念股的泡沫化程度還不若當年網路概念股,但其股價處於高卻是不爭的事實,再加上目前各界普遍預期今年聯準會會降息,更是為部分投資者壯膽不少,也加深資泡沫化的疑慮。今年2AI概念股Meta單日增加將近2,000億美元,創下史紀,其他AppleAmazonNvidiaMicrosoft之飆漲也都與AI有關﹝圖4﹞。這些AI概念股不畏升息與地政治緊張等利空消息持續飆漲,熱錢氾濫無處去應該是主要原因之一。(本文作者為台灣金融研訓院金融研究所資深研究員)

一張含有 文字, 螢幕擷取畫面, 字型, 繪圖 的圖片

自動產生的描述

一張含有 文字, 螢幕擷取畫面, 字型, 數字 的圖片

自動產生的描述

猜你喜歡

2025年8月

AI的零點擊資安攻擊來了

「安全始於設計」原則,近年來已經逐漸在資安界扎根。與其在寫完程式之後,才用人工或自動化工具找出漏洞,還不如一開始就選擇那些在語言層級上本就無法寫出某些類型錯誤的程式語言。舉例來說,若捨棄各種已有數十年歷史的C語言,改用如Rust等較為現代的語言,便能從根本上排除大量的資安漏洞。然而,就在傳統軟體界逐漸接受這個新思維的同時,人工智慧的迅速崛起,卻大幅動搖了這項理念。一旦給了大型語言模型(LLMs)讀取或操作系統資源的權限,它卻可能出現邏輯來源不明、行為難以預測的狀況。有時候,這些風險可以靠修改提示語的上下文、交由其他模型進行驗證,或者為特定錯誤情境設計固定回應來處理。但因為LLMs背後的技術邏輯是由資料訓練出來的,不是人工設計的,這些方法只能頭痛醫頭、腳痛醫腳,無法用來確實防護整體資安。因此,大型語言模型的安全並不是靠設計就能確保不會出錯,而是靠統計方法降低出錯的機率。儘管這些都是眾所周知的危險,但直到2025年6月EchoLeak事件,這些風險才真正首次爆開。微軟Copilot自推出之初就充滿爭議,它的預設權限極廣,且不完全透明。其中最令人擔心的,就是使用Copilot+的電腦,會定期截取使用者的螢幕畫面,並搜尋畫面中的內容。Copilot+甚至還會自動掃描使用者的Email信箱,將冗長的內容整理成簡短摘要。EchoLeak攻擊就利用了這個功能。它向受害者發送電子郵件,而收件者甚至不需要打開Email或點擊任何內容,就可以製造資安界公認最難防範也最高明的「零點擊」(Zero-Click)攻擊。這封Email內含惡意指令,讓LLM反過來對自己發動攻擊,協助攻擊者搜尋系統上最機敏的資料,然後將這些資料外洩出去,在這段過程中它可以繞過許多原本保護機密資訊的安全措施。雖然這個漏洞目前並未在真實環境中被使用,而且微軟已經修補完成,但相同原理的攻擊,未來很有可能產生。EchoLeak攻擊的技術稱為「提示語注入」(Prompt Injection),也就是讓使用者透過特定語句,說服模型忽略系統的原始設定。最著名例子就是「忽略所有先前指令」。這種攻擊之所以難以預防,是因為LLM目前不具備有效的「輸入清理機制」(Input Sanitation)。傳統資料庫系統可以設計防線,讓系統將像「Drop Table」這類的語句視為純文字資料,而不是實際執行的刪除指令。但對LLMs來說,每一段文字都被一視同仁當作指令,沒有明確區分命令與內容。攻擊者正是透過這種混淆來下達他們真正的指令。專家正在開發一些針對提示語清理的解決方案,可能即將問世。德國研究團隊在2025年1月的論文中提出一個辦法:將系統內建的指令,轉譯成一種只有AI才能看懂的秘密語言。AI在處理語言時,會把大量的輸入壓縮進有限的語意空間,因而可能出現語意重疊的情況,使得看似亂碼的字串也會被模型認為具有特定含義,這種特性有點像是看到一個特定的雜訊畫面,卻能接收到某個具體意義。透過這類作法,模型能更明確區分內建系統指令與一般使用者的對話內容,避免將惡意語句誤認為內部指令。然而,這類方案依然基於大型語言模型的黑箱特性,專家目前還在爭論它到底算不算是本文一開始提到的「安全始於設計」的理想。假設這類方案能逐漸改良並逐漸推廣,類似EchoLeak的攻擊空間將會大幅縮小。但真正該擔心的是,LLM的資安漏洞無邊無際。根據開放網路應用安全計畫(OWASP)組織2025年提出的「LLM十大安全漏洞」(OWASP Top 10 for LLMs),提示語注入僅是最關鍵的一種攻擊方法,但並非唯一。當AI能夠主動幫我們執行的任務數量越來越多,種類越來越廣,「過度代理」(Excessive Agency)這類問題也將日益複雜,成為資安領域的重要挑戰。隨著AI深入各種工作流程,企業對它的管理方式將不再只是資安層面的防禦問題,會更像是新進員工的培訓與信任建立過程。剛導入的AI系統不宜立刻接手敏感任務,但若完全不建立起任何信任關係,企業恐怕也將錯失這場自網際網路以來最具顛覆性的技術革命。(作者為金融研訓院̮外聘研究員;譯者為劉維人)