2023年4月18日
成立了9年的「生命未來研究所」(Future of Life Institute,簡稱FLI)一直以降低人類面對的生存風險為主要目標,除了向聯合國、歐盟機構及美國政府不同機關進行闡釋及倡議工作之外,也會推動公眾教育和資助減低風險的研究。
最近FLI聯同知名學者和科技專家發起公開信簽名運動,要求所有人工智能實驗室即時暫停訓練比起GPT-4更高階的系統半年,並善用這段時間共同撰寫一套《人工智能研究聯合守則》,確保往後的AI實驗能夠在有獨立第三方稽查的情況下進行──畢竟人工智能繼續以目前的速度發展,將對人類帶來何等程度之正面和負面影響,就連這些AI的創造者也不知道。
對許多傳訊及新聞學者而言,當前人工智能實驗對傳媒生態的巨大衝擊,乃是令事實查證工作的性質大幅改變:過去幾年,大量核實新聞的流程,往往會以影像作為關鍵佐證,也就是俗語謂之「有圖有真相」。是故AI合成圖像在短時間湧現,Fact-checkers確實有必要重新評估其影響,從而進行新一輪訓練。
牛津大學路透新聞研究所亦就此課題訪問了不同持份者,綜合各方意見得出以下答案:
第一,研發影像來源認證科技──此法之基本原則是令受眾更容易知道圖像及影片是否由人工智能合成而來,當中最簡單的做法就是直接加入「數碼水印」(digital watermark),卻會影響畫面及觀眾接收。另外,也有新聞機構(包括:英國廣播公司、加拿大廣播公司、《紐約時報》)連同由微軟牽頭的科技企業聯盟,策動「起源計劃」(Project Origin),一同研發可供用戶識別影像檔案來源及真偽之加密科技。而Adobe最近亦在其影像產生工具Firefly加入「內容證明」(content credentials),讓用戶得以識別圖像是否由AI製作。
第二,在機構內部設專責建立社會信任的部門──部分傳媒機構、社交網絡平台以至科技企業已經開設專門建立受眾或用戶信任的部門,並交由高層企管人員負責,或命名「首席信任執行官」(Chief Trust Officer),去通盤考量人工智能產生的圖像和影像可能引發的問題,制定應對策略來防患於未然。留意目前已知的人工智能(例如:DALL-E、Midjourney) 跟過往使用 Photoshop或深偽軟件(deepfake)之主要分別,是產生圖像或影像的速度會大幅提升:只需要簡單輸入數個關鍵字,AI便能在數秒鐘內完成製作新的媒體內容。正因如此,有學者提出未來很大機會有人會以人工智能發起「數碼火攻」(digital fire),意思是在極短時間內製作大量假冒影像充斥社交網絡乃至通訊軟件,製造混亂或達到其他惡意中傷的目的。是故新聞機構必須由現在開始,由專責團隊檢討和更新核實影像的流程步驟,簡化現行程序以追上由AI牽動的散播虛假訊息新節奏。
第三,訂明使用個人資料的道德規範及法律保障──現時不少人工智能產生之影像皆依靠網絡圖片而來(DALL-E 便是透過把大量文字和網絡照片或圖像作配對合成影像),上載原圖的人或許有點擊「我同意」,但實際上卻未必意識到這些照片到了今天會被人工智能大量複製並產生極多甚為扭曲的圖像,或是根本不想自己的個人資料被用來做實驗。如何令進行相關AI實驗的研究單位同意一套道德規範,包括推行opt-out制度,並就此訂明政策(包括是否需要立法監管),確實要盡快籌備和展開預備工作。此外,在公眾層面傳授AI製圖新世代下的個人fact-checking技巧訓練,也屬當前急務。
訂戶登入
下一篇: | 熱廚房 |
上一篇: | 香港電視業如何擔當大灣區傳媒龍頭 |