2020年4月23日
毫無疑問,自從AI成為全球技術發展的主流以來,Deepfake的問題就一直是人們關心的重點。網絡詐騙分子已經開始借助AI軟件模仿聲音進行詐騙了。事實上,利用AI語音合成冒充熟人進行電訊詐騙的案例,這幾年經常發生,並且涉及金額都非常巨大。
目前,許多矽谷巨頭和人工智慧初創企業都在開發這種語音合成軟體,用以模仿人的聲音節奏和語調,並被用來製作令人信服的演講。
如果你是某家公司的CEO,或者你在YouTube上有很多視頻,騙子就極有可能用它來合成你的聲音。根據《華爾街日報》去年的報道,英國一間能源公司高層在一個小時之內,通過匈牙利供應商向一詐騙犯轉賬二十四萬美元,而犯罪手法很簡單,僅僅是因為詐騙犯通過AI技術仿造了其母公司CEO的聲音。
該高層表示,在整個通話過程中,老闆輕微的德國口音都展現得淋漓盡致,就讓該高管完全沒有任何懷疑,聲音如此逼真,他覺得自己別無選擇,只能服從,直到被要求再次轉賬時發覺大鑊了。
又有一單詐騙案例就有這樣一位受害者,他幾乎沒有在任何社交平台上公開過自己的聲音,僅僅是因為召集員工大會時的講話被竊取,就成為了犯罪分子的目標。
隨着AI不斷的發展,我們所面對的Deepfake威脅將會愈來愈多。聲音合成如此猖獗,應該如何防範?
別無他法,沉默是金。
或者乾脆就不要在公眾平台上表露自己的任何生理特徵,包括聲音和長相。但如果我們在公眾社交平台上面看不到任何文字、聲音,那麼幾十年來的科技和資訊發展,不就白費了嗎?
訂戶登入
下一篇: | 唔病死都餓死 |
上一篇: | 有時,別人的臉像鏡子,會反照出自己…… |