2019年8月
「您的申請被電腦否決了」:人工智慧的黑暗面
許多人都認為,人工智慧(AI)將改善金融的效率,並讓金融體系更包容那些運氣不佳的人。但它也有一些重大風險。金融公司和監管機關都逐漸注意到,人工智慧對於個人生活與整體社會都可能產生意想不到的後果。因此,企業與政府是否能用公平、透明、負責的方式整合人工智慧,將明顯影響它們是否能贏得消費者與監管機關的信任。
我們每天都會碰到AI。無論是工作、社會環境,還是與政府打交道,AI無所不在。AI讓服務更便利,也讓提供服務的機構能夠擴大規模、提高效率。金融服務業當然也不例外。國際諮詢機構HIS Markit估計,AI對銀行業的商業價值,到了2030年將達3,000億美元。屆時金融服務業的總收益,將因為提高運作效率、降低金融犯罪風險,或釋放更多人力從事創新等等,提升至1兆美元以上。然而,英國《金融時報》(Financial Times)在2018年的一項調查結果卻沒這麼樂觀。它說:「銀行業尚未全力衝向AI的懷抱,而是緩慢摸索前進。」
照理來說,AI會帶來大量優勢。例如:消費者申請貸款之後可以瞬間知道是否通過;AI也可以在高階分析每個人的資料之後,給予每個人更適合的服務。但新技術的發展、影響力,以及廣泛的應用都一定會帶來風險,需要仔細研究。這可能就是金融機構決定對這片未知疆域保持謹慎的原因。
演算法是用程式碼寫出來的意見
說到AI,很多人都以為電腦的分析必然無私,結果必然公平。但這只表示人們嚴重誤解了AI的實際發展與運用狀況。AI系統是用大量的資料「訓練」出來的,而人類的偏見很可能會影響這些資料。有些資料並未充分反映社會現實,有些資料的歷史事實和態度則不完全客觀。常見的例子之一,就是用聲音與臉部特徵來識別本人,讓客戶不需要再記一大堆密碼的識別技術。這種技術使用的資料絕大多數都是白人男性,所以碰到女性或少數族群就經常出錯。「AI領域女性領袖」(Women Leading in AI Network)的創辦人之一伊凡娜‧巴托列提(Ivana Barto letti)說得好:「演算法是一種用程式碼寫出來的意見。如果大部分的設計師都是男性,運算結果當然會有偏差。」
如果程式設計師想讓AI模擬某些本身就帶有偏見的人類決策過程,很可能會無意間讓AI帶有偏見。例如,如果金融服務業的AI引用了一套過去對少數民族帶有偏見的資料,它可能就會給予少數民族較差的貸款條件。英國頂尖的研究機構皇家學會(Royal Society),在2017年的機器學習(machine learning)研究報告中指出,即使我們移除了違法的歧視性資料(例如年齡、種族、性別),AI系統還是可能從間接學習中產生歧視。例如人們的住址、職業、上過幾年的學校,可能都會被AI當成指標,做出具有歧視的判斷。
英國的金融行為監理總署(Financial Conduct Authority)認為,大數據應用對消費者有益,但也可能帶來風險。公司可能會用大數據避開那些無利可圖的客戶,或對較願意付錢的客戶額外加價。新興的資料處理方式,可能會在決策過程中產生道德問題。美國的《紐約時報》早在2009年就報導過,某些公司開始根據婚姻諮詢等因素,來降低信用卡的額度,因為離婚通常都與失業和違約相伴而至。這是很合理的商業邏輯,而且也不違法,但同時也是一個警訊:金融機構認為,自己的底線比需要金融服務的社會更重要。因此,AI不僅牽涉技術或法律,更會牽涉到許多公司應該仔細思考之後放入管理營運方針的重大倫理問題。
AI不只是一種科技問題
AI的關鍵問題,是所謂的「黑盒子問題」:在非監督式機器學習(unsupervised machine learning)中,即使輸入AI系統的資訊是透明的,人類也很難充分了解程式的決策過程,因此無法解釋決策結果。但金融服務業是一種高度監管的行業,決策的結果,例如拒絕申請抵押貸款或人壽投保,可能會改變人的一生,我們不能在沒有正當理由的時候,光靠「電腦說不行」就否決客戶的申請。消費者會希望知道哪些決定將影響自己,並了解之後要怎樣調整行為才能獲得批准。
最重要的是,如果我們無法解釋決策,可能也就無法發現系統充斥著各種不公平的偏見。因此公司經常採取一種重視透明性甚於效能的折衷方案:即使償還貸款的可預測性會降低幾個百分點,但只要能夠了解系統的決策方式,藉此揪出無意間滲入系統的偏見,而且能向監管機關解釋公司的管理方針,就依然值得。
AI的問題早就跨出了IT部門的範疇。有效運用AI需要公司高層參與,他們可以提出相關問題,並確保使用方式符合公司的整體標準與價值觀。而且AI將無孔不入,無論商業、法規、風險管理,還是安全部門,都需要一起研發相關規定以及符合道德的演算法模型。而隨著金融服務業使用AI的範圍逐漸增廣,公司也得像處理其他風險一樣,用全盤的視角來面對AI固有的問題。
此外,分析人士也提出一些可能降低AI偏見的其他方法。最直觀的一招,就是讓AI開發團隊反映出社會的樣貌。根據世界經濟論壇(World Economic Forum)發布的《2018年全球性別差距報告》(The Global Gender Gap Report 2018),AI專家目前只有22%是女性,這數字需要大幅提高。此外,保持輸入AI模型的資料的多樣性也同等重要,但這實行起來充滿挑戰。雖然當代科技讓我們能夠從社群媒體、行動網路等得到各種足以支持信譽的資料,讓金融標準變得更包容;但它也會讓模型變得不透明、因為無關的因子做出錯誤判斷,或讓那些很少上線,例如處境不佳或年老的客戶,因為偏見而權益受損。
研究公司顧能(Gartner)表示,由於資料、演算法,或負責管理的團隊具有偏見,到了2022年將有約85%的AI會算出錯誤的結果。因此產業與決策者都認為,還是需要人類來修正AI的錯誤。全球諮詢公司麥肯錫就表示,最近某家歐洲金融公司決定在面對財務脆弱或最近喪失親人的客戶時,必須有「真人參與」。
衝擊與風險值得監管機關思考
世界各地的決策者與監管機構,都開始思考AI對社會與經濟的衝擊,以及盡量降低相關風險的方法。如今討論AI風險時,不再僅限於技術上的問題,更加入它對全球金融穩定性的全面影響。金融穩定委員會(Financial Stability Board)這個國際政策協調機構在《AI與機器學習對金融服務業的影響》(Artificial intelligence and machine learning in financial services)中指出,「若能適當管理相關風險,這些新技術將帶來大好前程」;但如果所有銀行都使用同一套演算法和資料流,或者全面仰賴AI來擴張市場,可能就有危險。
某些地區有保障人民不受歧視之害的法律,這些法律也將適用於AI決策。例如美國的《公平信貸機會法》(The Equal Credit Opportunity Act)就規定,債權人否決貸款申請的時候,必須提供一份書面理由。歐盟在2018年5月全面生效的《一般資料保護規範》(General Data Protection Regulation)也寫明,人類有權拒絕完全由電腦來決定自己的案件。在某些情況下,客戶可以要求人類出面,在真人面前表達意見或質疑決策結果。
另一方面,決策者與監管機關也設法開發一套諮詢指南,給引進AI的金融機構使用,藉此確保AI的判斷公平而透明。新加坡金融管理局就在2018年11月公布了一套讓AI與資料分析能夠更公平、道德、可問責、透明的原則。它建議公司定期檢查AI的資料與模型,並用相同的倫理標準檢驗人類與AI的決策。
到了2019年4月,歐盟議會也發布了《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。制定該準則的第三方專家希望藉此讓更多人開發出負責且可問責的AI技術。歐盟議會去年發布的AI戰略表明了想在該領域領先全球的雄心,它決定在2020年底前,將公私部門投資AI的經費提高到200億歐元,並在之後10年內每年投資相同的金額。《倫理準則》知道取得大眾的信任是成敗的關鍵,因此特別著重AI的透明度、多樣性、公平、避免歧視與偏見等方面。
AI崛起無國界
AI應用風潮已席捲了全球各地的政府與企業,而且一定會繼續深遠地影響我們的日常生活,以及與金錢的關係。霍金曾說:「強大AI的崛起,既可能是人類史上最好的事情,也可能是最糟的事情。我們目前還不知道將走向哪邊。」AI確實具有巨大風險,它除了可能帶著偏見,也會消滅許多工作職位,或將人們的互動方式改得面目全非。但它的巨大優勢卻也可能蓋過這些風險。因此重要的是,我們要確保AI成為一種善良的力量,讓它將金融市場與整個社會變得更為包容。各國政府、監管機關、企業之間必須通力合作,以彼此不矛盾的架構降低AI無意間造成的風險,並防止人們藉此機會逃避責任。世界各地都有人呼籲持續進行相關的國際級討論,因為其成敗可能決定每個人的未來。(本文作者為台灣金融研訓院特聘研究員)