2022年4月12日
特首選舉又來了,之前兩次的特首選舉,皆出現新聞狂熱,也令不少市民出現「認知超載」──這次若只得一人參賽,未知能否讓傳媒和市民相對冷靜一點,從而有更多時間探討政策?
事實上,世界各地愈來愈多認知科學家(cognitive scientists)關心社交網絡引發的認知超載問題,特別是關於焦慮方面:受眾由於對社交網絡運作認識不足,往往到發病時已極為嚴重。據不同研究顯示,沒意識自己所接收的網絡新聞,背後原來是由演算法操控之受眾,比率佔整體社交網絡用戶的27%甚至62%。
德國認知科學家Anastasia Kozyreva,從人工智能及數碼科技所衍生的道德問題此角度,指出疫情迫使全球許多人留家工作,人類大幅增加觀看網絡內容,所以網絡企業為求賺取利潤,亦以演算法令受眾不斷追求更能夠刺激情緒之內容──也就是說,「節目推介」並不一定要切合你想看或想知道的內容,重點是能夠激起你產生強烈情緒反應,旨在播放可以留住你的東西(包括誤導訊息),結果卻導致認知超載,繼而造成情緒困擾乃至精神問題。
從認知科學層面,要減低因催谷網絡受眾情緒反應所衍生的心理健康和其他社會問題,專家學者們認同,各國政府應該有一個基本政策框架,其主要目的並不是去監控網絡內容,而在於提高一般人對網絡演算法操弄受眾的警覺性,當中有四大政策方向:
(一)提升演算法透明度──雖然演算法如何運作屬於商業秘密,但要讓受眾有效地管控個人私隱,社交網絡平台有責任告訴公眾,有什麼類型的敏感資料會賣予廣告商。
像一個人患上重病、暗病,以至性取向,有很多人也未必想別人知道,但網絡公司卻已經把這類敏感隱私,提供給各大企業的宣傳部門。在某些法例不容許同性戀的地區,如此商業行為甚至有機會危及用戶的生命安全。
(二)設「停一停才進入」機制──雖然Facebook經常是眾矢之的,然而臉書自己於新冠肺炎疫情期間,卻進行了一個極具參考價值的實驗:跟疫情相關帖文的內容部分,只要變成灰色(graying,也就是再按一下才能閱讀)並附有簡單提示,便能減少95%受眾閱讀與新冠肺炎有關的誤導訊息。正如本欄之前提及,只附上「此乃具爭議內容」標籤,反而吸引更多受眾進入閱讀。是故將來思考如何切斷假新聞的傳播鏈時,不妨參考Facebook這個實驗,引入某種形式的「冷靜期」。
(三)引進演算法稽查制度──商業營運畢竟是以企業本身的利益為依歸,可是社交網絡產生的社會問題,影響可以很深遠兼範圍非常龐大。我們不能只靠吹哨者或學術研究窺探,嘗試從中找出各種網絡平台演算法對人類的不良影響。各地政府當要求由第三方具公信力的機構,在同時保障私隱及商業運作之情況下,稽查各平台的演算法,既可找出箇中盲點,亦能提升公眾信任度。
(四)讓受眾知道哪些是政治廣告──所有社交網絡都應該設立開放式「廣告數據庫」(如Facebook的Ad Library),方便用戶直接查出廣告的來源資料,避免政治廣告偽裝成個人帖文。
目前這類廣告數據庫一般被視作協助廣告商的工具,社交網絡平台連同政府則有責任教育公眾,讓一般人可以透過數據庫來增加對演算法的認識,啟迪民智、保障權益。
訂戶登入
下一篇: | 歐洲接收難民 慈悲的矛盾 |
上一篇: | 從李家超參選看「全過程民主」 |