法規與監理 2023年5月

中國改組金融監管機構具有潛在危機

撰文:Alicia Garcia Herrero艾西亞

中國國家機構進行了一系列改組措施,變革中最重要的一項,應該是建立新的國家監管機構,負責監督金融業的所有領域。

國在3月召開的全國人民代表大會期間宣布了很多重要變化,除了習近平史無前例的第三次連任中國國家主席,還有經濟增速目標(5%)低於大多數分析師的預期,甚至低於2022年目標(5.5%),更重要的是,中國國家機構進行了一系列改組措施。這些制度變革中最重要的一項,應該是建立新的國家監管機構,負責監督金融業的所有領域。

新監管機構將從中國人民銀行接管金融消費者保護和對金融控股公司的日常監管職責,並接管此前中國證監會的投資者保護職責。

此次金融監管機構改組值得我們關注的原因有很多。首先,中國的金融業規模目前是世界上最大的,擁有約60兆美元的資產,相當於國內生產總值的340%左右。中國許多銀行在全球最大的系統性金融機構名單中名列前茅,這表明其與世界其他金融體系的聯繫日益密切。

處於一場醞釀的金融危機中?

中國的開發銀行和其他國家機構一直向海外提供大量貸款,主要通過「一帶一路」倡議。此前貸款突然削減已經對新興國家產生了較大的影響,高度依賴中國融資的國家感覺更加明顯,可以看出對於這些累積債務存量較高的經濟體來說,中國金融體系的任何問題都有可能加劇其後果。

其次,在監管和監督權更加集中的過程中,政府(國務院)和黨(習近平)將會在監督新機構中扮演的角色尚不明確,但削減行政權力並將之集中給黨的趨勢似乎是不變的。

另一方面,除了銀保監會解散外,有傳言稱,央行工作人員的薪酬可能會比重組前的水平有所削減。事實上,此次重組正值北京方面計畫將中央政府人員編制削減5%之際。減薪和裁員可能是為了騰出資金,為新重組的監管機構招聘合資格人員。

許多人認為,在中國經濟尚未從疫情的陰影和防疫政策留下的傷痕中復甦之際,建立一個新機構實在是太奢侈了,甚至有些草率。但值得注意的是,在國際上,集中的監管和監督機構往往是在系統性風險最高、可能需要進行金融體系重組的時候建立的。

接下來的問題是,中國是否處於一場正在醞釀的金融危機之中、需要迅速有效地加以應對。毫無疑問,矽谷銀行和瑞信的危機表示這不是沒有可能。

然而,中國金融體系的系統性風險不僅來自於美國和歐洲銀行業危機的連鎖效應,也來自於國內因素。首先,即使在習近平於2017年宣布「討伐」影子銀行以後,中國的負債水平也一直在上升。日益複雜的金融部門、龐大的表外債務構成的系統性風險仍然普遍存在。

此外,在過去一年半的時間裡,一些房地產開發商的違約也損害了中國的金融機構,更何況房地產業的困境尚未結束,國家放寬了開發商的貸款上限作為暫時性的緩衝,此前這個上限收緊導致部分開發商破產,2021年資產規模排名全球前列的恆大地產首當其衝。

最後,地方政府需要承擔實施疫情動態清零政策的大部分費用,而地方政府的主要收入來源――土地出讓收入卻直線下降。到2022年第三季度,中國所有省份都出現了財政赤字,不得不依靠中央政府的支持。雖然中國經濟開放後會為地方政府的財務狀況帶來一些改善,但整體上仍然脆弱。

監管和監督權力集中受關注

將監管和監督權力集中在一個小而靈活的高層機構,直接與國務院甚至習近平聯繫,應該會使協調變得更加容易,最重要的是,在潛在的財務困難時期會更加高效。這種監管結構的另一個關鍵優勢是,當計畫決定重組某個特定金融機構時,可以更容易地為其尋找融資。例如,中國在2000年代初期重組最大的銀行時,就是動用了外匯儲備作為其資本重組的資金池,當時中國的外匯儲備相當雄厚。如今,中國金融業的規模遠大於20年前,重組的成本必然也高得多。

總而言之,全國人大再次為中國和世界傳遞了重要消息。許多人關注習近平的第三個任期和政府制定的保守年度經濟增長目標,但鑑於中國金融業的規模和對世界其他地區的影響都在成長,新的中央金融機構可能同樣重要――如果這個舉措確實是北京準備對金融部門進行重大清理的訊號。(本文作者為Bruegel資深研究員、法國外貿銀行亞太首席經濟學家,譯者為廖珮杏

猜你喜歡

2025年8月

AI的零點擊資安攻擊來了

「安全始於設計」原則,近年來已經逐漸在資安界扎根。與其在寫完程式之後,才用人工或自動化工具找出漏洞,還不如一開始就選擇那些在語言層級上本就無法寫出某些類型錯誤的程式語言。舉例來說,若捨棄各種已有數十年歷史的C語言,改用如Rust等較為現代的語言,便能從根本上排除大量的資安漏洞。然而,就在傳統軟體界逐漸接受這個新思維的同時,人工智慧的迅速崛起,卻大幅動搖了這項理念。一旦給了大型語言模型(LLMs)讀取或操作系統資源的權限,它卻可能出現邏輯來源不明、行為難以預測的狀況。有時候,這些風險可以靠修改提示語的上下文、交由其他模型進行驗證,或者為特定錯誤情境設計固定回應來處理。但因為LLMs背後的技術邏輯是由資料訓練出來的,不是人工設計的,這些方法只能頭痛醫頭、腳痛醫腳,無法用來確實防護整體資安。因此,大型語言模型的安全並不是靠設計就能確保不會出錯,而是靠統計方法降低出錯的機率。儘管這些都是眾所周知的危險,但直到2025年6月EchoLeak事件,這些風險才真正首次爆開。微軟Copilot自推出之初就充滿爭議,它的預設權限極廣,且不完全透明。其中最令人擔心的,就是使用Copilot+的電腦,會定期截取使用者的螢幕畫面,並搜尋畫面中的內容。Copilot+甚至還會自動掃描使用者的Email信箱,將冗長的內容整理成簡短摘要。EchoLeak攻擊就利用了這個功能。它向受害者發送電子郵件,而收件者甚至不需要打開Email或點擊任何內容,就可以製造資安界公認最難防範也最高明的「零點擊」(Zero-Click)攻擊。這封Email內含惡意指令,讓LLM反過來對自己發動攻擊,協助攻擊者搜尋系統上最機敏的資料,然後將這些資料外洩出去,在這段過程中它可以繞過許多原本保護機密資訊的安全措施。雖然這個漏洞目前並未在真實環境中被使用,而且微軟已經修補完成,但相同原理的攻擊,未來很有可能產生。EchoLeak攻擊的技術稱為「提示語注入」(Prompt Injection),也就是讓使用者透過特定語句,說服模型忽略系統的原始設定。最著名例子就是「忽略所有先前指令」。這種攻擊之所以難以預防,是因為LLM目前不具備有效的「輸入清理機制」(Input Sanitation)。傳統資料庫系統可以設計防線,讓系統將像「Drop Table」這類的語句視為純文字資料,而不是實際執行的刪除指令。但對LLMs來說,每一段文字都被一視同仁當作指令,沒有明確區分命令與內容。攻擊者正是透過這種混淆來下達他們真正的指令。專家正在開發一些針對提示語清理的解決方案,可能即將問世。德國研究團隊在2025年1月的論文中提出一個辦法:將系統內建的指令,轉譯成一種只有AI才能看懂的秘密語言。AI在處理語言時,會把大量的輸入壓縮進有限的語意空間,因而可能出現語意重疊的情況,使得看似亂碼的字串也會被模型認為具有特定含義,這種特性有點像是看到一個特定的雜訊畫面,卻能接收到某個具體意義。透過這類作法,模型能更明確區分內建系統指令與一般使用者的對話內容,避免將惡意語句誤認為內部指令。然而,這類方案依然基於大型語言模型的黑箱特性,專家目前還在爭論它到底算不算是本文一開始提到的「安全始於設計」的理想。假設這類方案能逐漸改良並逐漸推廣,類似EchoLeak的攻擊空間將會大幅縮小。但真正該擔心的是,LLM的資安漏洞無邊無際。根據開放網路應用安全計畫(OWASP)組織2025年提出的「LLM十大安全漏洞」(OWASP Top 10 for LLMs),提示語注入僅是最關鍵的一種攻擊方法,但並非唯一。當AI能夠主動幫我們執行的任務數量越來越多,種類越來越廣,「過度代理」(Excessive Agency)這類問題也將日益複雜,成為資安領域的重要挑戰。隨著AI深入各種工作流程,企業對它的管理方式將不再只是資安層面的防禦問題,會更像是新進員工的培訓與信任建立過程。剛導入的AI系統不宜立刻接手敏感任務,但若完全不建立起任何信任關係,企業恐怕也將錯失這場自網際網路以來最具顛覆性的技術革命。(作者為金融研訓院̮外聘研究員;譯者為劉維人)