2023年6月21日
輝達(Nvidia)首季度財報亮眼,釋出超樂觀財測,推動單日股價曾飆升近三成,「領先全球的AI製造商」、「AI底層算力龍頭」之類的溢美之詞不絕於耳。如果說AI領域正在進行一場戰爭,那麼形容輝達為一家獨大的「軍火商」也不為過。該公司市值今年以來已升超過190%,一度突破一萬億美元,是目前市值最大的晶片公司,成為近期AI概念投資的贏家之一。
早在兩年前,輝達就在其發布會視頻中穿插了帶有AI合成的片段,在長達1小時48分鐘的主題演講影片裏有15秒為電腦影像合成的「虛擬黃仁勳」(輝達行政總裁),栩栩如生以假亂真。當時費力一幀幀比對真人和AI虛擬人物的粉絲恐怕沒有料到,今天這技術已被利用至詐騙領域。
AI騙案頻生 換聲換臉技術高
近日,內地某市公安局通報了一宗利用AI實施電訊詐騙的案例。一家科技公司老闆接到好友微信視頻電話,對方稱需要430萬元保證金,要求立刻轉賬。這位受害人出於對好友的信任,加上通過微信視頻電話看到的是好友本人,所以毫不猶豫在10分鐘內把430萬元分兩筆轉賬至對方銀行卡上。事後當他致電好友才知道被騙。
無獨有偶,全球各地新型詐騙案件層出不窮,英國美國均爆出深度偽造(Deep Fake)聲音詐騙的案件,騙徒們可以模仿受害人朋友或家人的聲音和形象,讓受害者產生信任感,並利用這種「身份欺詐」的手法讓人掉入陷阱。
曾幾何時,電影Mission: Impossible 3中特工還需冒着巨大風險,大費周章地先制服模仿的對象,逼對方讀出一大段事先準備好的台詞,進行電腦分析,才能複製聲音。時至今日,微軟人工智能語音模型VALL-E號稱只需3秒就能複製任何人的聲音,甚至連環境背景聲音都可模仿。至於大眾熟悉的AI換臉技術,現在只需一張2D的人物照片,程式就能讓其嘴巴動起來,而伴隨核心技術門檻的降低,合成視頻的成本也下降,讓犯罪分子有機可乘。換聲、換臉、電訊詐騙所使用的多重技術正在讓騙局愈來愈難以識破。譬如,騙子會通過騷擾電話來提取受害人聲音,再用合成後的聲音實施詐騙(以後不要和懷疑詐騙電話周旋,應及早掛斷)。
除了點對點獲取資料,騙子也會用AI技術從網絡資訊中篩選受害人,並運用人體圖像合成技術生成假臉,再對其親朋好友施騙。即使大人物如美國聯儲局主席鮑威爾,在沒有提防下,也曾與被惡作劇團體假冒的烏克蘭總統澤連斯基通話。不出所料,原來這團體也會利用Deep Fake技術騙取他人的信任。試想想,如果在美國聯邦公開市場委員會(FOMC)會議前流出一段幾可亂真假冒鮑威爾的講話,將會為市場帶來多大波動?
輝達晶片具優勢 股價看俏
以往的騙案普遍是利用受害人小小的貪念,但現時AI詐騙已不只局限於此,而是直接攻擊人類的認知盲區,耳聽為虛眼見為實的真理也徹底被顛覆。儘管各種騙局防不勝防,惟只要切斷對AI詐騙的「數據餵養」,就是有效防範的起點。與人類學習依靠大腦不同,人工智能的學習離不開大數據。通過統計分析瀏覽紀錄、點擊頻次,系統便可把人的特徵、行為及選擇資訊化,為人的生活提供便利。
不過,科技進步伴隨着的風險也為金融服務帶來新的挑戰。近年銀行業不斷優化客戶體驗,開通遠端服務為客戶製造便利,例如遙距視頻見證開戶、電話語音服務等。與此同時,金融業在提供服務時也需要加強風險防控Deep Fake,畢竟一兩張照片、一小段聲音內容,都可能被AI所利用,即時生成視頻。
所以,在金融安全防範措施方面,要加大對識別AI換臉技術在不法地帶應用開發力度,研發更加智能化的識別系統,真正做到「魔」高一尺,「道」高一丈。解鈴還需繫鈴人,既然可以通過AI合成視頻,那麼在防範識別領域,輝達也理應佔有先天優勢,如果開發出反欺詐識別App,高效分辨合成視頻和音頻,那麼其普及程度一定堪比「小熊來電」。
隨着愈來愈多手機安裝反詐騙App,輝達無疑又是這場攻防戰中的最大贏家,股價豈會止步於此。「木頭姐」伍德(Cathie Wood)今年1月清倉,近期羅富齊(Rothschild)家族基金也宣布減持,是否都過早離席?
最近AI尹光翻唱林家謙的《一人之境》爆紅,AI黃家駒也憑獨特聲線重新演繹Dear Jane的《到底發生過什麼事》,完美地向人類展示了AI合成技術的威力。此時此刻,筆者不禁聯想到早前孫燕姿本人對其AI翻唱視頻感慨良多,也發文感嘆科技的進步,但真真假假、假假真真,文章是不是ChatGPT代筆,誰又能知曉呢?
作者為中銀香港投資管理總經理
訂戶登入
下一篇: | 寶新能源利潤勢勁飆 |
上一篇: | 內需持續復甦 老鳳祥可憧憬 |