2020年8月15日
「對不起,Dave,我恐怕辦不到。」被奉為科幻片圭皋的《2001太空漫遊》,片中HAL 9000為了執行任務,導致有人喪生,後來逐漸發展出感情和智慧,末段求人類放一條「生路」,餘音裊裊。就算未來的AI有感情、有邏輯,也未必懂得分辨對與錯,「求放生」或許像狡猾的人類一樣,不想被毀滅(關掉)而已。
如果連AI都會犯錯的話,還能靠它建構未來世界?今年1月,美國底特律一個平凡的打工仔威廉斯(Robert Julian-Borchak Williams)收到一通警察打來的電話,被要求自首,起初不以為然,是大整蠱嗎?一小時後,他在住宅區被警車截停,莫名其妙地在太太和兩名女兒面前被鎖上手扣,罪名是「偷竊」,而且要追溯到2018年10月在名牌商店盜取5隻共值3800美元的手錶。
警方拿出閉路電視截圖,一名身材魁梧的黑皮膚黑衣人,頭戴MLB聖路易斯紅雀隊的鴨嘴帽,威廉斯被審問是否相中人:「不是我,你們以為所有黑人都一模一樣?」警方大條道理不認為自己拉錯人,威廉斯也透露曾與太太進入店內,但已是2014年的事,何況「window shopping」與「robbery」是截然不同的兩回事。
慘被電腦冤枉
威廉斯被拘留30小時後,以1000美元保釋外出,一直也找不到辯護律師,因為無人相信他是清白的。折騰數月,警方證實他的不在場證據屬實,事件於6月下旬曝光,被視為首名被AI錯判的無辜者。「這是人臉識別系統的警號,這種事情一直在發生,只是無人想知。」美國公民自由聯盟律師邁亞(Phil Mayor)坦言,威廉斯未必是第一個被冤枉的人。
人臉識別技術發展至今究竟有多可靠?2019年研究顯示,識別非裔美國人和亞裔面孔的錯誤率,居然是白人的10倍至100倍,惟人類卻對AI推心置腹,深信不疑。試想想,若威廉斯沒有不在場證據,隨時會被砌生豬肉,有口難言,百詞莫辯。
今時今日,AI早已融入了日常生活中,例如網上客服,而且全球500強公司中98%會利用AI篩選求職者,然後再交給人事部職員,惟Amazon翻看AI招聘工具時卻發現,整個過程有嚴重「重男輕女」的傾向。東家唔打,最多打西家,但是涉及人命、公義、社會秩序等議題時,AI的判斷可大可小。
英國是全球監控強國之一,曾花兩年時間開發「嚴重暴力犯罪預測」系統,目的是讓英國警方提早進入AI時代,有助防患於未然,聲稱準確度達到75%。系統面世後才發現錯漏百出,英國西米德蘭茲郡(West Midlands)槍械暴力犯罪的預測準確率最低僅14%,西約克郡(West Yorkshire)的預測準確率最低更只有9%,即10次就有9次出錯,幸好警方臨崖勒馬,認錯停用,避免演變成災難性的結局。
人皆有錯,科學家卻窮幾代人的精力,決心發明完美無瑕的AI,占飛想起了今年上畫的電影《全境失控》(AI Amok)。故事講述科學家開發AI拯救重病妻子,可惜日本政府拒絕允許AI參與醫療用途,只能眼白白看着妻子離世。數年後,政府開綠燈,AI慢慢發展為日本醫學界不可或缺的核心,但幾十年後AI收集了日本人的健康數據,計算出每個人的剩餘壽命,間接為政府進行監控,更密謀篩選出精英中精英,繼而演變成大屠殺。
圖靈提出疑問
「正因人類不夠完美,才會透過彼此需要,不至於成為機器的奴隸。」《全境失控》其中一句對白值得我們細嚼,但最諷刺的是,片中AI名叫「希望」,到頭來慢慢令人看不見一絲希望,眼前只見到絕望。港人會在片中感到可笑也可悲,因為間接導致AI失控的是政府官員,並認為日本出生率太低,人口老化使公共醫療開支不斷攀升,以致想出「分級制」來重新分配社會資源。
《2001太空漫遊》是1969年的作品,但原來在1950年,英國科學家圖靈(Alan Turing)就比寇比力克(Stanley Kubrick)更早思考人工智能會否犯錯的議題。圖靈在論文Computing Machinery and Intelligence中,雖然未曾定義「機器」和「智慧」,但就提出了「機器會否思考」的疑問,並透過維多利亞時代的模仿遊戲進行回答。
遊戲規則規定,一男和一女置身不同房間,將手寫筆記與裁判(第三方)進行溝通,並由裁判猜出雌雄真身。圖靈的實驗假設其中一名玩家被電腦代替,如裁判無法判斷對話的是人類抑或機器,便可推斷到機器存在「智慧」。於是,圖靈在模擬對話寫出一連串Q&A,其中一問是:34957+70764等於幾多?停頓30秒給出的答案是:105621。34957+70764應該等於105721,而非105621,為何要刻意計錯數?原來,他就是捕捉到人類認為「電腦」計算一定對的心理,藉此欺騙裁判,也認定無人會猜得到「電腦」會犯下低級錯誤。再看Artificial Intelligence這詞語的排序,重點是「人工」,而非「智能」,人心叵測,細思極恐。
撰文 : 占飛
放大圖片 / 顯示原圖 放大圖片 / 顯示原圖
訂戶登入
下一篇: | AI建構VR? |