熱門:

2023年5月22日

黃裕舜 政思故我在

地緣政治衝突不休 人工智能恐釀災難

誰害怕人工智能?

還有5天便100歲生日的美國前國務卿基辛格(Henry Kissinger),最近一次接受《經濟學人》(The Economist)訪問時表示,他認為人類只有5年時間研發出能有效地控制及監管人工智能(AI)崛起的框架,令中美博弈演變成與AI交織的完美風暴。基辛格認為當今世界充滿着「前所未見的破壞力」(unprecedented destructiveness),而自動化與不能抑制的武器(automatic and unstoppable weapons)已經出現在歷史舞台上。傳統軍事歷史上,戰事各方並沒有徹底摧毀對手的能力(It has never been possible to destroy all your opponents),可是強大科技當前,我們毫無防備或應對之力(100% vulnerable)。基辛格,說得對。

一、地緣政治與人工智能的互動

這是一個地緣政治鬥爭與博弈白熱化的時代。

全球化並沒有結束,但卻在意識形態與政治利益的糾纏下,演變成一種分裂性的全球化(balkanised globalisation)。在戰略利益重疊的共同體中,貿易自由化、資訊與數據聯通化、商貿融合等進程變得更為鮮明。所謂的產業鏈「友誼化」(friend-shoring)及「近距化」(near-shoring),描述的乃是在新冠疫情前早已展開,卻在疫情及俄烏戰爭下受到加速而所出現的經濟現象。自由經濟所帶來的盈餘紅利,不再是決定貿易產業鏈位置的唯一或核心標準,甚至淪為被視為必然──也因而毫不重要──的舊時代產物。

在強勢的美元與美國經濟及消費高漲下,中美貿易總額屢創新高,但當今的中美外交關係卻幾乎處於建交以來的最低點。即便我們寄望未來這兩三個月中美政府之間的官方與非官方接觸,能有效地恢復去年11月習拜會嘗試為中美關係設下「防撞欄」(guardrail)的良好意願,但我們也必須保持審慎警惕,就着最壞情況作出打算。姑勿論兩邊的有心人多麼鮮明的嘗試與努力,中美關係都沒可能回到千禧年代以至十年前之時的狀態。這也是大國全面性戰略競爭節奏下的必然下場。同時,我們也毋須過度糾纏在這一關節點上:是時候接受現實,並嘗試在這個新常態中找到嶄新的穩定點,盡量防止中美之間擦槍走火,並在關鍵議題上創造有限度合作與交流的空間。

科技能為人類帶來新機遇、新市場、新想像。卻也能讓人類變得更為傲慢、更為愚笨、更為自大。筆者上兩周早已詳細地探討AI對勞工市場及存在性風險所帶來的影響。今天的主要立論很簡單:除非我們能成功找到化解或紓緩包括中美兩大國博弈在內的地緣政治矛盾與衝突,否則地緣政治力量與AI的交織只會讓我們陷入無窮無盡的痛苦漩渦之中,邁向極端危險邊緣。AI乃中美(有限度)合作的關鍵一環,也確實需要北京與華盛頓的領導層之間發展出一定的共識,方能拆解這個計時炸彈。

二、國際層面上的「雙重對齊問題」

上周提到了「對齊問題」,主要聚焦在AI與人類之間的「對齊」不整,而所衍生出的問題。究竟AI會否與人類「看齊」,還是隨着時間推演與演變,透過各種扭曲性機制(distortionary mechanism),變成與人類利益相牴觸?但無論是作家吉斯丁(Brian Christian)還是與牛津哲學家塔斯洛(John Tasioulas),即便是這些相對於關注對齊問題的公共政策與對社會衝擊的「宏觀」分析人士,他們都似乎忽略了一個非常關鍵的定奪性問題,那便是人類內部本質在利益、價值觀、思想層面上的分歧,讓我們根本無法促成一個統一的「人類命運共同體」,去發展出一套完整而不會有內部矛盾的價值觀,以讓AI與其「對齊」。也就是說,在解決「人類─AI」對齊問題前,我們首先要化解人類內部矛盾,也即是國與國、人與人之間的「對齊」問題。

如上周所述,信奉不同宗教與道德系統(比方說,伊斯蘭教與基督教)的程式員在制定AI目標時,有可能受自身價值觀潛移默化影響,從而衍生出按照不同規律與秩序的人工智能。不同國家的AI研發團隊,箇中的主流意見、價值觀、道德三觀,甚至對較為抽象而主觀性的價值研判,皆有明顯出入。這些出入,可在AI具體的數個關鍵層面繁衍出來:一、AI在面對設計道德兩難的問題時,應當以什麼樣的理論框架或哲思去作決定?二、假若我們將來出現資源短缺,需要作出利益權衡與取捨,AI會首要地看重與捍衞哪些人的利益(英國人、美國人、中國人,還是俄羅斯人?)。三、AI會如何平衡隱私與公共利益、個人與政府、民主參與和決策效率(又或是將兩者結合起來)?這些開放問題皆沒有必然正確或錯誤的答案,但不同研發體制所建立起來的AI,卻幾乎肯定會有不同的決策與取態,從而因應純粹偶然的因素(例如研發地點與團隊組成),透過AI所接受的指引與學習數據而衍生出截然不同的結果。

大國之間的利益「不對齊」,甚至直面衝突,絕對能觸發所發展出來的AI之間的「不對齊」。不同的國家人民擁有着不同的案例與先例、記憶與意見、行為模式與規範。只要一個AI具備足夠的「歸納」(generalisation) 能力,能從反覆學習及接觸的海量數據點中梳理出自身判斷為應當遵守的衍生「定律」,便足以驅動他們去偏離我們設下的自然軌跡,從而衍生出自身獨立行動模式,讓監管者防不勝防。

這裏我們可來一個沙盤設想。若干年後,某一國家選擇以人工智能作為(自動地)處理一切網絡及電腦防衞與攻擊的事項,以來取代偏頗、片面、能力有限的「網絡黑客」,必要時可進行持續的超限網絡戰。這些人工智能所接受的訓練與學習過程當中,其中一個關鍵「目標」乃確保其所屬國家的「經濟利益」獲得最大化。在這前提下,AI發展出「提振投資者對自身信心」、「抑制區域內其他競爭對手經濟增長」的新建目標 (emergent goal),必要時通過對鄰國的資訊與數碼干預,從而實踐自身目標。假設此AI認定某一鄰近國家經濟生產對其國家利益構成威脅,結果發動大量自動「網軍」,滲透鄰國社交平台與網絡,令當地出現所謂民主的「示威與騷亂」……

且讓我們將「經濟利益」換成「軍事霸權」,然後所謂的新建目標則可包括「對某地域的實際操控權」或「對某些資源的壟斷權」。意外與悲劇同樣會發生。隨着人類社會愈來愈在生活各方面對AI發展出根深柢固的依賴,國與國之間的鬥爭與博弈不斷地升溫與白熱化,我們決不能排除AI會「自行武裝化」,對「敵對國家」發動惡意攻擊,又或是對「中立國家」進行滲透及干預性行動,締造出我們預計不到的結果與後遺症(可參考哥特斯(Frida Ghitis)在World Politics Review 3月初所發表的專欄文章)。即便我們的程式員可以盡量地嘗試通過直接輸入去扭轉或「監督」將來這些AI的行為,這也無法改變其本質數據來源層面上的問題 ──這是一個典型的來源問題(source problem)。

在不久的將來,人工智能不但可被有心人士利用為國與國之間博弈的純粹武器,更有可能「自行」僭越人類意志,越俎代庖,結果引起一發不可收拾的風波。以上例子圍繞着資訊與媒體,但設想一下擁有核武器動用權的AI、又或是擁有電波或磁場干預能力而由AI所支配的尖端武裝科技,其潛在風險又是多麼的高呢?

三、國內政治層面上,政府能否有效地監管AI?

國際層面上的博弈,往往反映着國內政治的具體考量。可惜的是,在這個大國之間的相互信任跌至谷底的新時代,對於不少政府而言,讓其人工智能不惜一切代價去迅速發展乃一個不得不接受的所謂浮士德式交易(Faustian Bargain):寧願確保AI能快速發展與增長,從而固定自己作為世界領頭的角色,防止被「對方」或「他方」取代,也不願意開發各種各樣的「護欄」或必須的「保險」。在不少當權者眼中,他們寧要「快」而不穩,也不要「慢」而相對安全的AI發展。

筆者曾預測過,2023年乃是「人工智能監管」在大眾輿論中冒起的一年,也是正式宣布政府與私人企業就着AI研發步伐展開一場激烈大辯論的一年。事實上,不同國家內部就着AI的監管、法律地位,甚至相關的版權法、產權法、仲裁法,都莫衷一是,更別提建立國際層面上的所謂的共識。除了國與國之間沒有「對齊」以外,國家內部的政府與私人企業,以及其他持份者,也沒有就着AI產生可持之以恒的「對齊」。

在這裏,且讓我們看看美、中、歐三地政府對AI監管的取態與框架。

先說美國。有朋友日前跟我討論時提到,中國如今成為了美國產業政策(Industrial Policy)的主要實際燃料。美國政商界最具影響力的建制內部,充滿着「凡是中國正在做的……我們也要做的」的反中「凡是派」,以及「中國現在根本做不到……所以我們必須繼續做,以防止他們爬頭」的疑中「超越派」論述。兩種論述皆鼓勵人工智能研究者不斷加速,敦促他們「不能停,也停不起」。

另一邊廂,研發出ChatGPT的科技巨頭OpenAI總裁奧爾特曼(Sam Altman)日前在華盛頓國會聽證會上表示,即便AI對人類潛在貢獻眾多(包括處理氣候變化與治療癌症等用途),但其對人類也構成嚴重風險。他希望美國政府能考慮包括「發牌制度」及「測試要求」在內的一籃子應對措施,以確保AI得以安全而有序發展。面對其誠懇的呼籲,部分列席的國會議員也紛紛和議,表示他們對AI在深度模擬(DeepFake)及對就業市場所帶來的衝擊的憂慮。康乃狄克州參議員布魯蒙索(Richard Blumenthal)甚至提出一個設問,「假如ChatGPT或AI技術將來向我們提出建議,要烏克蘭向普京投降,我們又應當如何?」固然人類現在還具備鮮明的否定權去向AI的提議「說不」──但將來這一點卻難以擔保。

但事實上,無論國會內部的討論多麼激烈,即便美國副總統賀錦麗(Kamala Harris)與一眾人工智能驅動企業兩周前進行了一次嚴肅會面,美國在人工智能層面上的監管力度依然頗為有限。美國國會一來似乎並沒有針對個人或非企業組織對人工智能利用所立法的企圖,二來更沒有執行相關法例與指示的警力與資源。其中,Meta在AI方面一向是「開放原始碼」(Open Source)的最大倡議者,堅持將所原始碼「公諸於世」,毫無保留地讓個體用戶得以自行改編與利用。除了開放原始碼以外,過去數年科技巨頭內部的人事變動、整體科技知識的「普及化」與流傳,皆讓包括不少立心不良的分子,獲得相對較為先進的人工智能技術,從而化作自身謀取利潤的工具。隨着恐怖主義與武裝分子在世界各地抬頭,我們必須慎防這些「開放原始碼」墮入不法之徒時所帶來可能非常嚴重的後遺症。

再說歐盟。相對於美國,歐盟在普遍科技監管與審視層面上,普遍較為優勝。5月11日,歐盟議會裏面的一個委員會正式審核並通過《人工智能法案》,距離正式在議會大會上通過此一法案邁進一大步。此一法案將監管與法律義責程度與潛在風險畫上掛鈎等號──也即是說,風險愈高,監管標準便愈為嚴謹。法案更要求包括ChatGPT在內的原始模型(foundation models),必須滿足特定安全要求,不能被用作包括「定奪與審判用戶的『可信度』(trustworthiness)」、「擴大人面識別(facial recognition)數據庫」及「利用人類弱點(exploiting the vulnerabilities of individuals)」在內的特殊目的,更必須引進完善的數據管理程序與風險管控機制,從而避免對用戶私隱權與自主權的根本蠶食。

固然《人工智能法案》反映出歐盟對AI所帶來的挑戰較為縝密而認真的態度,但法案能否最終獲得全方位落實,依然存有很大懸念。須知道,有不少在歐盟活躍的大企業代表與商界利益領袖,就着5月11日的決定皆表示強烈的反對與批評,認為法案要求過高,並將先進AI錯誤地當成如「洪水猛獸」一般的原罪。同時,歐盟的AI法律制定現階段並沒有考慮到包括中國、東南亞、中東在內等其他AI開發程度頗為活躍地區的具體實況,故有可能在全球執行與長遠協調層面上出現鮮明不足。即便在中歐關係正從寒冬中逐漸「暖化」的前提下,而理論上中歐絕對有必要就着人工智能進行更多及廣闊的對口與銜接,方能防止包括「黑市AI」或不法分子利用監管漏洞,將先進AI技術與學習模型「武器化」,但事實上,人工智能依然未「融入主流」,被放在中歐戰略對談的核心之中。

當然,相對於歐洲與美國(尤其是後者),筆者對中國在人工智能監管上的力度、精準度與能力,還是較為具備信心的。今年4月中,中國網信辦就着《生成式人工智能服務管理辦法》正式發出了意見徵求邀請。這也是緊扣着兩會上包括中央科技委員會組建、科技部重組、國家數據局設立等的一連串結構性大動作,反映出中央當局對人工智能所牽涉到的國家、數據與科技安全的鮮明關注。

有批評聲音認為中國在AI發展方面過慢、過於謹慎、未能開放「數據賬」與撤下「防火牆」,故難以在速度上超越英美等地。筆者對這些批評則懷有一定保留──固然數據數量與豐富性乃AI發展的要素之一二,但我們也必須考慮到所發展出來的AI,無論是強還是弱AI,本質上能否與國家整體人民利益「對齊」。站在突破科技樽頸角度而言,我們確實可能需要較為「自由開放」的數據庫與管理模式。但站在安全發展與整體穩定角度而言,中國相對較為謹慎的運作模式,未嘗不是一種另類的適度調整與作風。至於中國數碼化與訊息管理結構層面上的挑戰與短板,這些問題容筆者日後有機會再詳述。綜上可見,不同國家內部針對人工智能方針的迥異,既是反映出當權者與商界企業之間的博弈,也有可能構成政府與私人企業之間各種複雜而難以估計的矛盾,從而左右國際層面上AI的發展軌跡。

四、結語:在人工智能層面上推動「全球合作」,是否不合時宜?

最後,我們也必須回答不能迴避的一道問題。究竟全球各國(當中尤以中國、美國兩國為甚及為首),有沒有可能就着人工智能監管與治理,進行有效而持久的合作?

有很多人說,「中美合作」這一良好願景,早已不合時宜。甚至有資深的在英人工智能學者曾跟筆者反映,業界中已就着中美關係轉差「作出最壞打算」,以「新冷戰」作為預測基礎,從而再產生出頗為令人消極的蓋棺定論:完善的全球監管十分難以落實。我們還是做好心理準備,迎接以上第二點中所列舉的衝突矛盾情況的「反烏托邦」(dystopia)。

事實上,推動人工智能全球合作,談何容易?一,無論是中國還是美國,還是部分所謂的西方發達國家,近年來對包括人工智能在內的跨國尖端學術與科技調研,增加了不少的安全系數要求。華盛頓去年所推動的《晶片與科學法》,以及北京近年來為了應對滲透與國家安全風險而落實的防守性政策,皆讓中美科技交流變得更為謹慎而疏離;再加上西方國家針對華裔科學家的各種麥卡錫主義措施與調查,讓在美的華裔科學家要不對與中國合作徹底「死心」,要不便是乾脆離開美國,移到中國過來。真正能在兩邊維繫雙方關係的人,愈來愈少。

二,中美之間的戰略性信任受到過去5到7年的種種政治性因素所影響,早已瀕臨消逝。華盛頓與北京之間就着人工智能難以取得共識,一方面是因為此議題本身反映着及牽涉到不同的價值觀與政策重點,另一方面則是因為兩者皆認為對方正嘗試透過AI與其他相關科技,去「壓倒」對方成為領先世界的AI霸權。而隨着中美戰略競爭白熱化,數據安全與科技安全的相對重要性有增無減,雙方難以單純的「對話」甚至「二軌外交」作為解決方案。要落實全球就着AI的徹底合作,首先得要化解中美之間的多重心結。而要推動中美以外的第三方持份者去擔當兩國之間的調停者,決不容易。

三,也是最後一點。要管控AI,我們首先要接受一點基本事實:AI對我們所構成的威脅,遠比任何沒有AI的人類對我們構成的風險來得為大為深。大國博弈當中,傳媒與輿論分子往往會嘗試將對方塑造成十惡不赦,又或是極為危險的「對手」──比方說,美國部分極端右翼媒體,便將中國等同於即將「侵略」美國的強大威脅。在不少大大小小針對中美關係的敍事當中,AI的角色可謂是可有可無。正是這一點,讓中美普羅民眾怠慢及輕視AI的可能禍害,並以為唯一的敵人便是「美國」或「中國」。

那究竟有沒有解決方法?筆者沒有很好的答案,也不敢說全球合作乃是可行而必行的。

但我唯一知道的是,面對人工智能,我們沒有害怕的餘地。我們也沒有不合作或協調的自由。此時此刻,誰害怕人工智能?還是那些不願學懂、看通人工智能的朋友們吧!

〈誰害怕人工智能?〉系列最終篇

牛津大學政治哲學博士生、羅德學人

 

(編者按:黃裕舜最新著作《破繭論》現已發售)

歡迎訂購:實體書、電子書

訂戶登入

回上

信報簡介 | 服務條款 | 私隱條款 | 免責聲明 | 廣告查詢 | 加入信報 | 聯絡信報

股票及指數資料由財經智珠網有限公司提供。期貨指數資料由天滙財經有限公司提供。外滙及黃金報價由路透社提供。

本網站的內容概不構成任何投資意見,本網站內容亦並非就任何個別投資者的特定投資目標、財務狀況及個別需要而編製。投資者不應只按本網站內容進行投資。在作出任何投資決定前,投資者應考慮產品的特點、其本身的投資目標、可承受的風險程度及其他因素,並適當地尋求獨立的財務及專業意見。本網站及其資訊供應商竭力提供準確而可靠的資料,但並不保證資料絕對無誤,資料如有錯漏而令閣下蒙受損失,本公司概不負責。

You are currently at: www.hkej.com
Skip This Ads