金融科技
2025年4月
AI戀曲與代價
2022年底ChatGPT問世,宛如春雷劃破寂靜,敲響了生成式人工智慧的時代序曲。短短2年之間,數十個生成式AI如雨後春筍般冒出,將各產業帶進全新的紀元。AI更已滲入國內外金融業的各個環節,包含資料分析、文書生成、營運管理、客戶服務、法遵合規等等,將金融服務推向嶄新的境界。
雖然生成式人工智慧對金融產業帶來顛覆性的突破,但也衍生諸多法律與道德風險,包含虛假或不當資訊的提供、人工智慧的偏見與歧視、營業秘密或個人資料的洩漏以及著作權之侵害等。
首先,虛假或不當資訊的提供,是生成式AI最為人所詬病的風險。金融機構如使用生成式AI產出錯誤的財務分析或產業報告,可能會讓自己公司或企業客戶做成不合理的商業決策;如果產出不當的理財規劃或投資建議,可能會害個人客戶在理財或投資時發生偏誤,尤其是金融機構紛紛以生台灣銀行家2025.4成式AI來建構智能客服,雖然在某些程度上可以取代真人客服來節省人力,惟若將悖謬訊息傳達給客戶,可能會損及其權益,甚至可能引發社會風暴。
另外,金融機構多已使用AI來分析客戶的財務資訊並產出信用評等,惟因資料蒐集瑕疵或AI訓練時偏誤的標註,以AI所產生的信用評等出現偏見或歧視的憾事偶有所聞。
其次,生成式AI使用者對AI下提示詞時,可能無意中洩漏公司的營業秘密或客戶的個人資料。現在越來越多的企業員工每天在工作上使用生成式AI,用以產出與公司經營決策相關的內容,當員工對生成式AI下提示詞時,往往不自覺地輸入公司機密或客戶個資,殊不知已對機敏性資訊帶來極大風險。
例如韓國某知名企業就曾因工程師的疏失,在使用生成式AI協助修改電腦程式的缺陷時,輸入公司重要的電腦程式,致使公司蒙受巨大損失。企業如擔心使用公用生成式AI會洩漏公司機密或客戶個資,可能會考慮自建不對外連網(內網)的生成式AI。然而,當企業自己訓練生成式AI時,也可能無意間將包含公司機密或客戶個資當成訓練資料,一旦訓練完成,這些機敏性資訊就變成大型語言模型的參數,再也無法刪除。
再者,生成式AI是由巨量資料訓練而成,金融機構使用其所生成的文書、圖畫或影片,某程度經常會近似原始訓練資料。此時如果貿然對外公開,就有侵害他人著作權之風險。特別是當金融機構將「檢索增強生成」(Retrieval Augmented Generation, RAG)技術運用於生成式AI時,其對使用者所下提示詞的回應會以RAG所提供的資料為主要依據,同時也會大幅提升侵害著作權的風險。
此外,當金融機構為保護客戶個資或營業秘密,選擇自己開發不對外連網之生成式AI時,無論是從頭訓練模型,或是使用他人預先訓練好的開源模型進行微調,都無可避免地使用到他人具有著作權的資料。當前國際上已有數十起針對大型語言模型之訓練所衍生的著作權訴訟,生成式AI的開發者多以合理使用進行抗辯,能否為法院所採還在未定之天。然無論如何,著作權人要提起訴訟是他們的權利,金融機構倘欲自己訓練模型,便必須面對侵權訴訟的風險。
那降低風險的應對策略是什麼?首先,對於虛假或不當資訊的風險,最好的策略就是對生成式AI所產出的內容、各種分析報告不可盡信,一定要由專業人員逐一檢視並核實校對,且以專業意見進行實質性修改。由於智能客服是以文字或語音即時回覆客服的問題,無從再經專業人員檢閱或修改,因此金融機構務必須將智能客服的建置列為高度風險事項,對於客戶經常問到的問題與解答,可以使用情境學習(in-context learning)等技術,來確保智能客服回答的正確性。金融機構如以AI進行客戶的信用評等,也應列為高度風險事項,務必確保AI的信用評等不會產生偏見或歧視。
其次,控管公司機密或客戶個資洩漏風險,最極端的方式是嚴禁使用生成式AI。但此舉恐有大開科技倒車因而喪失競爭優勢的疑慮。因此,建議金融機構可依據使用情境,對所涉公司機密與客戶個資的狀況進行分級:對於無涉機密與個資的事項,例如公司團隊建立行程的規劃,當可開放;對於雖然涉及機密或個資,但能將其去識別化再輸入生成式AI的內容,例如投資分析報告等,應責成員工將機敏性資訊遮蓋或去識別化後,再行使用;對於無法去識別化的機密或個資,例如公司的財務預測或客戶的信用評等,應考慮自建不對外連網的系統。
對於機密與個資的分級制度與風險控管,金融機構宜指定專人負責規劃與執行,並持續對員工進行教育訓練,讓員工於使用生成式AI時都有風險意識。此外當金融機構將客戶個資使用於生成式AI時,務必檢視是否符合當初個資蒐集時跟客戶約定的特定目的,如有逾越即可能變成目的外利用,須能滿足《個人資料保護法》第20條第1項之情事,方得使用之。
最後,金融機構於使用生成式AI來產出對外文書時,建議必須以人工檢閱產出的內容並做實質性修改,一來確保內容的正確性,二來可降低與原始文本的相似性,從而緩和侵害著作權的風險。
為確保對AI產出內容的修改幅度夠大,金融機構可考慮將AI所產出的內容送入類如Turnitin等論文抄襲比對軟體進行比對。該等軟體在比對後會標示出AI所生成文本與其他文本相同之處,此時便可針對其標示處進行實質性改寫。此外,金融機構可盡量選擇有針對生成內容提供出處的AI,以便對其所產出之內容註明出處,如此當可在未來有侵權糾紛時,提高主張合理使用的可行性,從而降低侵權風險。金融機構倘欲自己訓練模型,建議應盡最大可能與訓練資料的著作權人協議取得授權。其實,就訓練資料取得授權所花成本,相較於購買昂貴GPU的花費,實在微不足道,在考慮自行訓練模型時,實毋須為了省小錢而惹來訟累。
最後,金融機構於導入生成式AI時,可任命具有相關專長者專職關於人工智慧管理規範的建立、員工風險意識的教育訓練、執行成效的評估與改進方案的制定,也有助於緩和生成式AI所帶來的風險。(本文作者為政大科管智財所專任教授、中華無形資產暨企業評價協會理事長)