近期,基于生成對抗網(wǎng)絡(luò)(GAN)的技術(shù),對視頻或者音頻合成人類的假人臉、假聲音的詐騙案件時有發(fā)生。雖然這些應(yīng)用目前而言并未有完善的法律進行限制,但它們已經(jīng)在網(wǎng)絡(luò)犯罪中開始發(fā)芽。
這種行為在國外被稱為“Deepfake”(深度偽造),名稱來源于深度學(xué)習(xí)與偽造的組合。GAN的應(yīng)用范圍較廣,擴展性也強,可應(yīng)用于圖像生成、數(shù)據(jù)增強和圖像處理等領(lǐng)域。簡單地說它可以分析一個人數(shù)千個語音記錄(圖像),在分析結(jié)果上創(chuàng)建一個聽起來“一樣”的文件(音頻或圖像)。
圍繞這項技術(shù)的討論越來越激烈,人們開始擔(dān)憂不法分子通過其模仿政客或者公眾人物傳播虛假的信息,例如通過發(fā)表極端的主義言論影響選舉結(jié)果或者煽動暴力等。
今年8月,在西班牙就有通過Deepfake技術(shù)詐騙公司22萬歐元的案件發(fā)生,其主要的方式是詐騙者通過模仿該公司ceo的聲音,對公司員工進行詐騙。
語音詐騙非常常見,但是通過人工智能與深度學(xué)習(xí)進行犯罪的,目前還是比較“新鮮”,據(jù)網(wǎng)上資料統(tǒng)計,2013年-2017年網(wǎng)上詐騙案件增長了350%,一旦犯罪分子利用AI技術(shù),那么這個比例只會有增不減。
AI作為一項新技術(shù),本身并無善惡之分,人們可以用其進行制止犯罪,也可以用于實施犯罪。從悲觀的角度上看,未來企業(yè)用戶的IT系統(tǒng)與網(wǎng)絡(luò)威脅將迎來更高層次的挑戰(zhàn),因此對于網(wǎng)絡(luò)安全而言任重道遠。