2021年2月11日
有些道德遊戲的二選一,幾乎不必考慮,立刻就能給予答案。
如果有一隻初生小狗和一隻坑渠老鼠在高處墮下,而你有能力救其中一隻,會救小狗或老鼠?如果一列出軌火車快要撞向一群野豬或一個老人,情願犧牲野豬或老人?
有血有肉的正常成人,當然能第一時間作出判斷。但如果「駕駛者」是電腦,它們面對這類兩邊都是生命的情景,有沒有足夠能力下一個正確決定?
最近玩過網上一個「道德機器遊戲」。它是Max Planck人類發展研究所其中一個研究項目,藉遊戲收集大眾對未來智能機器,例如無人駕駛自動車,在執行任務時可能會遇到各種道德難題的意見。
兩難情景的例子:失靈的自動車即將撞向前面三個人,並導致他們死亡。一、撞向遵守規則過馬路的三個途人;二、立即轉彎去另一車道,撞向不遵守規則過馬路的五個途人。面對人數多少、受害原因是否自找,該如何選擇?
又,失靈的車會撞死前面其中一組人:一、不遵守交通規則過馬路的一個女運動員、一個女人和她的嬰兒;二、遵守規則過馬路的兩個老先生、兩個罪犯和一個小女孩。如果不把罪犯計算在內,兩組都只有三個人。問題是,罪犯也是人,我們有沒有權作判官?
另外還有一些難題是車子會撞向人或者動物,這些選擇通常較容易下決定。遊戲開發者之一Azmir Sharif指出,二百多個國家地區,接近四千萬人玩過這遊戲,幾乎所有人都會選擇人多於動物,也傾向救人數多的一邊,不管那組人是誰。但哈佛大學找來二百多個五至九歲的小孩玩類似的道德遊戲,三分一小孩會為一隻狗放棄一個人。
有網民說,在之前的美國大選期間,不少人或會像小孩一樣,寧願拯救一隻狗而不是侵侵(或拜登)。有些人永遠得不到民心,而有些人的血性,的確比不上一頭動物。
訂戶登入