8月26日,360 AI安全研究院公布了關(guān)于人臉識(shí)別技術(shù)的研究成果和風(fēng)險(xiǎn)提示。據(jù)了解,360 AI安全研究院曾聯(lián)合清華、西安交大的研究人員發(fā)現(xiàn)AI應(yīng)用中圖像縮放模塊存在的漏洞,提出了一種新型的數(shù)據(jù)流降維攻擊方法,影響了國(guó)內(nèi)外主流的AI云服務(wù)。
在此次ISC 2020 大會(huì)的人工智能與安全論壇上,360 AI安全研究院研究員劉昭以某款人臉識(shí)別設(shè)備能讓任意人通過(guò)為例,說(shuō)明不僅AI算法存在漏洞,其所依賴(lài)的關(guān)鍵基礎(chǔ)設(shè)施也同樣會(huì)被攻擊,并進(jìn)一步揭露了AI關(guān)鍵基礎(chǔ)設(shè)施存在的安全風(fēng)險(xiǎn)。通過(guò)攻擊漏洞,最終可以在某人臉識(shí)別設(shè)備中實(shí)現(xiàn)任意人員都能通過(guò)驗(yàn)證的效果。
值得關(guān)注的是,這種攻擊不是針對(duì)AI算法的攻擊,而是對(duì)AI算法所依賴(lài)的基礎(chǔ)設(shè)施進(jìn)行的攻擊。“針對(duì)基礎(chǔ)設(shè)施攻擊,最終可能會(huì)更快達(dá)到攻擊效果。”劉昭在演講中表示,大多數(shù)研究人員偏向于對(duì)算法安全的研究,比如對(duì)抗樣本攻擊、后門(mén)攻擊等。雖然AI基礎(chǔ)設(shè)施安全風(fēng)險(xiǎn)巨大,其嚴(yán)重性卻容易被忽視。這意味著,AI關(guān)鍵基礎(chǔ)設(shè)施的三個(gè)層面都面臨一定安全風(fēng)險(xiǎn)。
針對(duì)深度學(xué)習(xí)框架安全風(fēng)險(xiǎn)。云端框架安全風(fēng)險(xiǎn)主要來(lái)自于自身代碼的實(shí)現(xiàn)以及第三方的依賴(lài)庫(kù)問(wèn)題;終端框架安全風(fēng)險(xiǎn)主要存在于模型網(wǎng)絡(luò)參數(shù)、模型網(wǎng)絡(luò)結(jié)構(gòu),以及模型轉(zhuǎn)換過(guò)程。據(jù)了解,360 AI安全研究院已經(jīng)在多個(gè)深度學(xué)習(xí)框架及其依賴(lài)組件中發(fā)現(xiàn)了100多個(gè)漏洞,如OpenCV,hdf5,numpy等。
針對(duì)硬件相關(guān)的安全風(fēng)險(xiǎn)。據(jù)英偉達(dá)官網(wǎng)統(tǒng)計(jì),截至今年7月,關(guān)于GPU驅(qū)動(dòng)漏洞的數(shù)目達(dá)到數(shù)百個(gè);芯片漏洞以幽靈、熔斷為例,幽靈漏洞可以造成泄露敏感數(shù)據(jù)、執(zhí)行特定代碼,熔斷漏洞導(dǎo)致用戶(hù)態(tài)獲取特權(quán)內(nèi)存的數(shù)據(jù),這些漏洞影響了Intel、部分ARM的處理器。
針對(duì)云平臺(tái)的安全風(fēng)險(xiǎn)。360 AI安全研究院表示,用于深度學(xué)習(xí)任務(wù)的節(jié)點(diǎn)性能強(qiáng)大,因此總會(huì)有一些攻擊者想要非法使用這些資源進(jìn)行挖礦。
“只有在確保AI系統(tǒng)的安全,才有可能放心享受AI的便利,那么保證系統(tǒng)中AI關(guān)鍵基礎(chǔ)設(shè)施的安全至關(guān)重要。”360 AI安全研究院表示,AI關(guān)鍵基礎(chǔ)設(shè)施的安全問(wèn)題可以通過(guò)權(quán)限控制、訪(fǎng)問(wèn)隔離、參數(shù)過(guò)濾等措施進(jìn)行緩解,針對(duì)AI關(guān)鍵基礎(chǔ)設(shè)施的安全問(wèn)題,需要建立多維度、一體化風(fēng)險(xiǎn)評(píng)估方法以及對(duì)應(yīng)防御措施。
下一步,360 AI安全研究院將聚集國(guó)內(nèi)外頂尖人工智能安全創(chuàng)新要素,研究人工智能系統(tǒng)各個(gè)環(huán)節(jié)安全問(wèn)題,突破人工智能安全攻防重大關(guān)鍵共性技術(shù),構(gòu)建自動(dòng)化安全風(fēng)險(xiǎn)評(píng)測(cè)平臺(tái)。