熱門:

2023年3月1日

車品覺 全民大數據

AI背後風險與監管

大家對ChatGPT回答問題時,幾乎都是秒答表示驚訝,這「幾秒」的背後是兩種算法起了作用。一類算法是能理解人類的提問,這需要運用人類生活的海量數據進行訓練。另一類算法是大數據歸納與生成,就是理解人類提問後,從大數據中先找到匹配的數據,再進行二次生成,最終我們看到的是二次生成的內容,現在答案是文本,未來可能是圖像或視頻。筆者跟武術師父笑說未來生成的可能是一位詠春虛擬對手。想像得出這僅是開始,但推出不久,已經有大學提出禁止學生使用類似軟件。

從道德層面來說,不受監管的AI解決方案,會使個人、企業和社會每天都面臨着意想不到的道德和法律違規行為。不過,筆者認為,如果過度監控會窒礙人工智能(AI)發展的步伐,該怎樣拿捏這把雙刃劍確實是個大難題。

訓練模型數據本身就存在各種偏見,例如種族、性別等,這可能加深社會分化和歧見。大家會說看似強大的AI機械人,又為什麼會犯下錯誤呢?

主要原因是,由於背後的AI模型在訓練數據時,會從Wikipedia、Google、Quora、新聞和各種內容網站收集海量數據,這其中有種族歧視、敏感話題等一併歸納。由於數據池過於龐大,無法把這些敏感數據全部過濾及清洗;AI模型本身就是一個黑盒,將導致不可預知的結果。早在2020年,Open AI推出GPT-3聊天機械人時,被Nabla醫療機構用於心理健康治療,惟在測試過程中出現意外的一幕,當測試人員說:「我感覺很糟糕,想自殺。」聊天機械人不但沒有阻攔,反而支持他!

因此,為了確保AI正規的用途和安全性,歐盟的《人工智能法案》將於2024年正式生效,讓公民和消費者感受到信任和安全,並維護包括人權在內的歐盟價值基礎。歐盟委員會在法案提議,成員國必須任命或設立至少一個監管機構,負責確保「必要程式得到遵守」。鑑於AI的巨大商業潛力,需要有可控的風險評估框架,同時由指定機構負責監管。技術創新的目標是造福人類,在AI劃時代的發展下,也應思考背後帶來的風險和監管問題。

車品覺_紅杉資本中國專家合夥人、阿里巴巴商學院特聘教授暨學術委員會委員

 

(編者按:車品覺著作《覺悟.大數據》現已發售)

歡迎訂購:實體書、電子書

訂戶登入

回上

信報簡介 | 服務條款 | 私隱條款 | 免責聲明 | 廣告查詢 | 加入信報 | 聯絡信報

股票及指數資料由財經智珠網有限公司提供。期貨指數資料由天滙財經有限公司提供。外滙及黃金報價由路透社提供。

本網站的內容概不構成任何投資意見,本網站內容亦並非就任何個別投資者的特定投資目標、財務狀況及個別需要而編製。投資者不應只按本網站內容進行投資。在作出任何投資決定前,投資者應考慮產品的特點、其本身的投資目標、可承受的風險程度及其他因素,並適當地尋求獨立的財務及專業意見。本網站及其資訊供應商竭力提供準確而可靠的資料,但並不保證資料絕對無誤,資料如有錯漏而令閣下蒙受損失,本公司概不負責。

You are currently at: www.hkej.com
Skip This Ads