2023年9月23日
美國科技巨頭上周齊集華盛頓國會山莊,與議員閉門討論如何監管人工智能(AI)。自去年ChatGPT面世吹響AI革命號角後,各地爭相研究監管相關科技,鬥快完成監管框架,以便在協調國際規管的談判中搶佔先機,爭取AI產業話語權。
OpenAI去年11月推出AI聊天機械人ChatGPT大受歡迎,Alphabet、百度等科企「怕執輸」,紛紛發布自家AI產品,引發AI競賽。同時,各地官員擔心AI急速發展會帶來嚴重風險,觸發「AI監管競賽」,希望在AI更普及前完成相關法規。各地法例一定以協助自身AI發展為前提,若早點推出,較大機會說服其他國家跟隨,有利本土AI產業。
涵蓋八範疇 歐盟暫領先
歐盟在監管AI上走得最前,今年6月通過《人工智能法案》(AI Act),歐洲議會、歐盟27個成員國和歐盟委員會之後將討論如何進一步修訂法例,預計年底前完成立法。惟法案有兩年寬限期,假設法例明年元旦生效,意味要2026年才正式執行。
綜合各國法例雛形、專家提出的風險及AI開發商自願遵守的臨時守則,AI監管大致涵蓋八大範疇:
一、哪些範疇完全禁用AI?一些AI應用被視為風險太高,各國可能禁止開發。歐盟《人工智能法案》目前版本禁止在公共場合使用AI人臉辨識,亦禁止以AI識別網民的性別、種族等資料,避免導致歧視。
二、維護人權和私隱權。現時已有法例規定網絡平台及科技不得侵犯網民人權和私隱,並規範科企如何使用網上大數據,AI監管肯定會有同類限制。
三、版權問題。AI需要利用海量數據訓練,開發商使用前應否取得相關內容生產者的同意、如何取得授權、應否支付版權費,以至AI由數據產生出來的內容版權誰屬等問題,全部都須釐清。
四、推出前評估。開發商推出AI產品前需要進行風險評估,確保安全,惟評估程序如何、政府應否強制執行,仍要討論。
五、AI透明度。為免科企幕後操弄AI,有必要公開AI部分資料,例如開放源碼,但須在保障公眾知情權及開發商利益之間取得平衡。
六、內容審查。相關討論現時主要針對生成式AI,重點防範AI製作假資訊,包括深偽技術(deepfake)影片,阻止AI產出種族仇恨、鼓勵自殺等言論,並讓用家清楚知道跟自己互動的是否AI。
七、安全護欄(guardrail)機制。由開發到推出市面後,都要有防範機制,一旦預見快將發生大問題能立即停止AI運作,轉回人手操控。
八、保障就業。很多分析已警告AI將取代大量工作崗位,政府須及早協助深受影響的勞工,同時鼓勵他們學習因AI興起而出現的新技術和新工種。
出事誰負責 各地存分歧
科技無國界,特別是網絡世界發展成熟,新AI產品很便能銷往全球各地,因此各國協調AI法規十分重要,若企業需逐一配合不同市場的法例,勢阻慢AI發展。
不過,各地監管模式和心態有別,預計將就兩點發生爭拗。首先,誰要為AI出亂子負最終責任?歐盟和中國傾向在大部分情況下,AI開發商都要負刑責,但美國、英國、日本和以色列偏向視乎個案種類作決定。另一爭議點是,應有專門AI法規和機關進行監管,抑或盡量由現有法例及監管機關負責?
事實上,各地均是全盤考慮AI政策,而非獨立研究AI規管,故監管有多嚴謹,取決於相關地區在推動創新方面敢冒多少風險。
AI業界最擔心及密切關注、也最難預測的是中美外交大戰。中國為了內部政治穩定,已排除Facebook、Google搜尋器等美國科技產品,恐怕在處理AI風險上也會採取同一思路;而美國四處防止晶片等高科技產品出口中國,相信也會阻止AI尖端技術流入中國。一旦中美爭拗延伸至AI監管,法例傷及對方的AI公司,夾在中間的AI業將麻煩重重。
訂戶登入
下一篇: | 談判平台多 是否邀華協商掀爭議 |
上一篇: | 周五主要經濟數據 |