2023年5月5日
在過去十年,科技對整個金融行業的影響不斷擴大,人工智能亦成為投資管理中具突破性的創新科技。隨着大數據技術的數據源增加和人工智能工具的普及,金融行業亦需與時並進,投入科技改革行列。根據國際數據資訊(International Data Corporation)的調查,在2022年間,銀行業是亞太區所有行業當中科技開支最大的行業,投放於人工智能的總開支高達20億美元;在2020至2025年間的5年複合增長率更達到25%。
儘管如此,投資管理行業的人工智能仍處於發展階段。根據香港貨幣及金融研究中心在2021年發表的一份研究報告,接近一半的受訪亞太區資產管理公司並未使用人工智能或大數據程式,約30%的受訪者則剛開始在有限的範疇內使用這些科技。有見及此,CFA協會希望提供道德方面的分析,並為投資行業的公司及專業人士提供一個決策框架,推動企業責任,引領人工智能未來的發展。
2022年CFA協會投資者信任度研究報告訪問了340名亞太區機構投資者,以了解他們認為在未來3至5年內,恒常運用人工智能和大數據的商業活動。結果顯示,首三項活動分別是資產組合管理(63%)、風險管理(58%)及銷售和市場營銷(40%)。此外,86%的受訪者表示,相較以人類決策作投資決定的基金,他們對依靠人工智能和大數據工具的基金更感興趣。對比全球平均水平的81%,這個結果意味着亞太區的機構投資者對人工智能有較高的信任度。
四點道德考慮
當然,這份信任是建基於投資者對人工智能主導的投資方法及其結果的理解能力。在考慮企業管治議題時,亞太區投資者主要關注演算法的透明度、對知識產權的保護和營運風險。
最近幾個月,人工智能被大量使用,卻缺乏監管,情況甚至引起人工智能支持者的關注。在3月,包括馬斯克(Elon Musk)在內的一批科技界知名人士發表了一封公開信,呼籲世界頂尖的人工智能實驗室採取謹慎態度。信中強調,即使是人工智能系統的創造者,亦不能完全理解、預測及控制系統的行為,敦促各界重視道德考量,以及嚴格監督人工智能。
我們總結了以下四點道德考量:
一、數據的正當性
在利用人工智能程式處理數據前,我們必須先檢查並清理數據。公司在搜尋及使用數據時,需要遵守數據私隱監管條例及保護措施,而合規考量對開發人員在使用非結構化(unstructured data)和替代數據時(alternative data)亦相當重要。近期的三星(Samsung)事件便是一個例子,說明人工智能可能對個人數據私隱及安全造成威脅:在3宗獨立的事件中,三星軟件工程師與ChatGPT分享了敏感及機密的數據。
在這個情況下,資訊偏誤是另一個關鍵考慮因素。在機器學習的領域中,分類數據(categorical data)是指被歸入特定檔案的資料,而軟件工程師會設計一個程式,以識別資料的關係及進行預測。雖然過程看似客觀,但往往有機會因為不完整的訓練數據集或不適合的抽樣方法而產生偏見。
二、準確度
一個人工智能程式不僅要準確執行預期的任務,同時亦要在應用新數據時有良好的樣本外測試表現(out-of-sample performance)。在我們發表的「投資行業的人工智能及大數據應用指南」中,我們簡述了在金融活動中應用機器學習的挑戰。金融市場是世上最複雜的人造系統之一,信噪比(signal-to-noise ratio,即有用資訊與沒用資訊的比例)十分低。另一個挑戰是數據的儲存量有限,金融市場的可用安全數據點最多只有1200個,而其他領域則有數十億甚至數萬億個數據點。再者,金融市場的機器學習應用之所以是一大挑戰,是因為它一直在變動。相比之下,其他領域如生物學及健康的法則則較穩定。
除了偏見及準確度的問題,生成模型(generative models)還有可能輸出捏造的訊息,這種現象被稱為「幻覺」。因此,我們需要良好的設計、訓練方式和道德指引,以降低人工智能的風險,避免為個人及機構帶來損失。
三、可解釋性
具備解讀及解釋能力的人工智能,正成為人工智能工具及演算法發展的中心。可解釋的人工智能包括解釋程序中某個功能如何引致一個結果、或是該功能對結果有多大相關性的工具,從而提高程序的透明度及可解釋性。在機器學習演算法中,可解釋性是最具挑戰性的元素,因為程式是從隱藏的決策層中學習某些功能,例如神經網絡(亦即所謂的黑箱問題)。因此,專業人員需要權衡模型的準確性及可解釋性。當然,複雜的模型更有可能提供良好的表現,但我們需要更多資源以了解模型如何達到某個效果。
四、問責機制
為了確保人工智能有準確且合適的表現,我們需要充足的人力監督、管治及問責機制。這意味着我們要持續評估使用人工智能的益處、成本與風險。定期報告及與客戶溝通,對理解和信任人工智能亦至關重要。
應用人工智能的道德決策框架
當我們考慮到人工智能應用於投資行業的道德原則後,CFA協會現提出一個決策框架,以協助業界以合符道德的方式設計、開發及使用人工智能工具。
.第一步是定義目標,即遇到的問題、目標受眾及預期成效。在這個階段,我們基本的道德考量便是確保程式以客戶的利益為先。
.接下來便是獲得建立程式的數據:建立模型,然後訓練及測試該模型,並監測其表現。除了道德考慮,公司必須建立一個更廣泛的框架,涵蓋管理層問責制、風險管理及資訊科技的集體所有權 (collective ownership)。
.最後,公司要確保相關業務部門在人工智能及數據科學領域擁有必要的知識、技術和能力,因為相關人員與公司核心員工(投資部門)的專業知識截然不同。為發展有關專業知識,公司應進行評估,考慮訓練現有員工或聘請擁有相關知識的員工。
有關在所有工作流程中需考慮的道德考量及關鍵問題,請參閱「投資管理中的道德及人工智能:為專業人士而設的框架」。
一個全面的生態系統
為確保客戶利益最大化,投資專業人士有責任提供合符道德的指引,並把相關考慮納入以人工智能驅動的解決方案。除了一個道德決策框架外,機構管理層必須建立一種以客為先及團隊合作的文化、穩健的風險管理系統,以及技能發展基建。結合以上元素後,相信能提供一個合符道德且成功應用人工智能的生態系統。
作者為CFA協會資本市場政策部總監Sivananth Ramachandran及CFA協會資本市場政策部研究主任陳嘉藍
訂戶登入
上一篇: | 進入「第四彎」 政治經濟臨巨變 |