熱門:

2020年4月23日

老占 俺俺占占

Deepfake模仿聲音

毫無疑問,自從AI成為全球技術發展的主流以來,Deepfake的問題就一直是人們關心的重點。網絡詐騙分子已經開始借助AI軟件模仿聲音進行詐騙了。事實上,利用AI語音合成冒充熟人進行電訊詐騙的案例,這幾年經常發生,並且涉及金額都非常巨大。

目前,許多矽谷巨頭和人工智慧初創企業都在開發這種語音合成軟體,用以模仿人的聲音節奏和語調,並被用來製作令人信服的演講。

如果你是某家公司的CEO,或者你在YouTube上有很多視頻,騙子就極有可能用它來合成你的聲音。根據《華爾街日報》去年的報道,英國一間能源公司高層在一個小時之內,通過匈牙利供應商向一詐騙犯轉賬二十四萬美元,而犯罪手法很簡單,僅僅是因為詐騙犯通過AI技術仿造了其母公司CEO的聲音。

該高層表示,在整個通話過程中,老闆輕微的德國口音都展現得淋漓盡致,就讓該高管完全沒有任何懷疑,聲音如此逼真,他覺得自己別無選擇,只能服從,直到被要求再次轉賬時發覺大鑊了。

又有一單詐騙案例就有這樣一位受害者,他幾乎沒有在任何社交平台上公開過自己的聲音,僅僅是因為召集員工大會時的講話被竊取,就成為了犯罪分子的目標。

隨着AI不斷的發展,我們所面對的Deepfake威脅將會愈來愈多。聲音合成如此猖獗,應該如何防範?

別無他法,沉默是金。

或者乾脆就不要在公眾平台上表露自己的任何生理特徵,包括聲音和長相。但如果我們在公眾社交平台上面看不到任何文字、聲音,那麼幾十年來的科技和資訊發展,不就白費了嗎?

 

訂戶登入

回上

信報簡介 | 服務條款 | 私隱條款 | 免責聲明 | 廣告查詢 | 加入信報 | 聯絡信報

股票及指數資料由財經智珠網有限公司提供。期貨指數資料由天滙財經有限公司提供。外滙及黃金報價由路透社提供。

本網站的內容概不構成任何投資意見,本網站內容亦並非就任何個別投資者的特定投資目標、財務狀況及個別需要而編製。投資者不應只按本網站內容進行投資。在作出任何投資決定前,投資者應考慮產品的特點、其本身的投資目標、可承受的風險程度及其他因素,並適當地尋求獨立的財務及專業意見。本網站及其資訊供應商竭力提供準確而可靠的資料,但並不保證資料絕對無誤,資料如有錯漏而令閣下蒙受損失,本公司概不負責。

You are currently at: www.hkej.com
Skip This Ads