此前DeepFake換臉在全球引發(fā)軒然大波。從生成足以以假亂真的名人不雅視頻開始,很多使用者將這個“換臉神器”當(dāng)成了視頻造假工具,并通過社交網(wǎng)絡(luò)將虛假信息傳播到全世界。DeepFake等技術(shù)出現(xiàn)不僅提升了換臉的真實性,其開放源代碼的方式更是降低了將該等技術(shù)濫用于虛假信息制作和傳播門檻。
事實上,大約30%經(jīng)過AI換臉的合成照片、合成視頻是人類僅憑肉眼無法識別的,很容易被當(dāng)作真實信息進行再次傳播。這已成為一個亟待解決的社會性問題,面對這個問題,我們應(yīng)該以及可以做些什么?微軟亞洲研究院給出了解決方案。
除了DeepFake,市場上存在多種換臉技術(shù),不同算法生成的圖像結(jié)果千差萬別,難以使用同一個換臉鑒別模型解決所有換臉技術(shù)的進攻。與此同時,換臉鑒別模型還需要對目前不存在、但未來可能出現(xiàn)的換臉技術(shù)也具有判別力,如何去預(yù)測未來換臉技術(shù)的發(fā)展方向,提前布防,也是重要課題。
目前,最常被使用的AI換臉?biāo)惴ㄓ腥N:DeepFake、FaceSwap和Face2Face。其中,DeepFake基于大家所熟知的GAN技術(shù),對于它所生成的臉,人類的識別率大約為75%*。FaceSwap是一個學(xué)習(xí)重建臉部特征的深度學(xué)習(xí)算法,可以對給出的圖片進行模型替換,人類對于此類換臉的識別率也是75%左右*。Face2Face則是用其他真實的人臉去替換原本的人臉,不涉及人臉的生成,對于它制造的臉,人類的識別率只有41%*。作為目前學(xué)術(shù)界最大的合成視頻數(shù)據(jù)庫之一,由慕尼黑技術(shù)大學(xué)創(chuàng)建的FaceForensics數(shù)據(jù)庫涵蓋了經(jīng)過以上三種換臉?biāo)惴ň庉嫷墓_視頻,以供學(xué)術(shù)研究使用。
多年來,微軟亞洲研究院在人臉識別、圖像生成等方向都擁有業(yè)界領(lǐng)先的算法和模型。在CVPR 2018上,微軟亞洲研究院視覺計算組發(fā)表了論文“Towards Open-Set Identity Preserving Face Synthesis”,其中的技術(shù)能夠利用開放數(shù)據(jù)集中的數(shù)據(jù),逼真地合成保留圖中人臉身份信息的圖像。深厚的技術(shù)積累讓研究員們對“進攻方”的技術(shù)原理有著更深刻的理解,進而能夠更有針對性地研發(fā)換臉鑒別算法。
圖1:微軟亞洲研究院開發(fā)的模型分別提取蒙娜麗莎和赫本圖片中的身份信息和屬性信息進行合成
因此,微軟亞洲研究院研發(fā)的換臉鑒別算法,基于FaceForensics數(shù)據(jù)庫的測試結(jié)果均超越了人類肉眼的識別率以及此前業(yè)界的最好水平*:對于DeepFake的識別率達到了99.87%,對于FaceSwap的識別率為99.66%,對于Face2Face的識別率為99.67%。
Real Image | Deepfake | Face2Face | FaceSwap | |
Human* | 79.24% | 75.21% | 40.81% | 75.21% |
R?ssler et al.* | / | 98.76% | 98.59% | 98.53% |
Our method | 99.92% | 99.87% | 99.67% | 99.66 |
表1:微軟亞洲研究院開發(fā)的模型分別提取蒙娜麗莎和赫本圖片中的身份信息和屬性信息進行合成
Real | Deepfake | Face2Face | FaceSwap | Neureltexture | |
Baseline Binary Classifier | 99.59% | 82.11% | 74.46% | 7.16% | 77.46% |
Our method | 98.17% | 98.07% | 89.63% | 92.23% | 86.35% |
在微軟看來,要構(gòu)建可信賴的AI,必須遵循以下六大原則:公平、可靠和安全、隱私、包容、透明、責(zé)任。微軟內(nèi)部還成立了人工智能倫理道德委員會(AETHER),幫助微軟應(yīng)對AI帶來的倫理和社會影響。