中文字幕日韩一区二区不卡,亚洲av永久无码精品天堂动漫,亚洲av无码国产精品麻豆天美,最新版天堂中文在线,中文字幕视频在线看

a&s專業(yè)的自動化&安全生態(tài)服務(wù)平臺
公眾號
安全自動化

安全自動化

安防知識網(wǎng)

安防知識網(wǎng)

手機站
手機站

手機站

大安防供需平臺
大安防供需平臺

大安防供需平臺

資訊頻道橫幅A1
首頁 > 資訊 > 正文

人臉識別技術(shù)的現(xiàn)在與未來

當(dāng)今,生物識別技術(shù)飛速發(fā)展。作為公共場所安全防務(wù)重要的技術(shù)手段,生物識別技術(shù)被廣泛應(yīng)用于政府、軍隊、銀行、交通等公共設(shè)施。特別的,通過視頻圖像的人臉識別技術(shù),以其源數(shù)據(jù)采集容易、成本較低廉等眾多優(yōu)勢越來越得到安防產(chǎn)業(yè)的重視。相比于指紋識別、虹膜識別、筆跡鑒定、DNA鑒定等技術(shù),人臉識別僅僅需要在重要場所部署攝像設(shè)備,經(jīng)過比對算法運算,比對的速度十分快捷。但是作為廣泛存在的人臉數(shù)據(jù),容易采集的圖像數(shù)據(jù),在人物不同表情、年齡等狀態(tài)下人臉數(shù)據(jù)往往呈現(xiàn)出不盡相同的姿態(tài)。在一
資訊頻道文章B
  文/章九九 北京智諾英特科技有限公司研發(fā)部

  當(dāng)今,生物識別技術(shù)飛速發(fā)展。作為公共場所安全防務(wù)重要的技術(shù)手段,生物識別技術(shù)被廣泛應(yīng)用于政府、軍隊、銀行、交通等公共設(shè)施。特別的,通過視頻圖像的人臉識別技術(shù),以其源數(shù)據(jù)采集容易、成本較低廉等眾多優(yōu)勢越來越得到安防產(chǎn)業(yè)的重視。相比于指紋識別、虹膜識別、筆跡鑒定、DNA鑒定等技術(shù),人臉識別僅僅需要在重要場所部署攝像設(shè)備,經(jīng)過比對算法運算,比對的速度十分快捷。但是作為廣泛存在的人臉數(shù)據(jù),容易采集的圖像數(shù)據(jù),在人物不同表情、年齡等狀態(tài)下人臉數(shù)據(jù)往往呈現(xiàn)出不盡相同的姿態(tài)。在一般的人臉圖像中,可以用來識別的圖像特性往往不易提取,而且極易受到圖像質(zhì)量、人物表情姿勢、光照條件、面部遮擋等諸多因素的影響。如何提高識別的準(zhǔn)確率是人臉識別技術(shù)的最大課題。

  傳統(tǒng)人臉識別技術(shù)與發(fā)展

  傳統(tǒng)的人臉識別技術(shù)必定經(jīng)過“人臉檢測”、“特征提取”和“識別算法”這3個步驟。其中基于Boosting的人臉檢測算法已經(jīng)相對成熟,部分大廠商的人臉檢測技術(shù)更是達(dá)到了國內(nèi)領(lǐng)先水平。同時其中個別廠商的人臉檢測SDK可以支持5路同時檢測最小尺寸達(dá)20×20像素的人臉目標(biāo),在人臉左右旋轉(zhuǎn)45度之內(nèi),準(zhǔn)確率可以達(dá)到98%以上。

  人臉圖像的“特征提取”是將圖像信息數(shù)字化,一張人臉圖像轉(zhuǎn)變?yōu)榈囊淮當(dāng)?shù)字(一般稱為特征向量)需要具有生物個體唯一性、可以測量、用于識別和驗證等特征。幾何模板參數(shù)是早期的提取方法,近年來出現(xiàn)的Gabor、LBP、SIFT等基于圖像紋理的特征提取方式都取得了良好的效果。然而,很多特征提取方式得出的特征向量數(shù)據(jù)量遠(yuǎn)遠(yuǎn)超出了原有的圖像數(shù)據(jù)量,從而引發(fā)所謂的“維度災(zāi)難”,不利于特征的存儲、計算,更不利于識別。一方面,需要在圖像最有信息量的部分計算、提取特征,另一方面,可以通過采用降維方法來避免“維度災(zāi)難”。

  “識別算法”指的是分類特征向量的方法,LDA、SVM分類器、貝葉斯模型等都是具有代表性的分類識別算法?;诙喑叨雀呔SLBP/SIFT特征降維的貝葉斯模型等方法是近年來傳統(tǒng)人臉識別架構(gòu)最新的研究成果。


人臉比對算法


  在2014年北京召開的國際安全產(chǎn)品博覽會上,就發(fā)現(xiàn)一款基于糾錯碼的視頻身份認(rèn)證系統(tǒng),并獲得很好的反響。該系統(tǒng)通過攝像機跟蹤抓拍一張人臉圖片,并與預(yù)先登錄的人臉圖像比對,以確定使用該證件的是否為其本人。算法最大的特色是,算法可以精確定位人臉49個關(guān)鍵部位的位置,通過關(guān)鍵部位信息校正圖像從而一定程度上彌補了人物表情造成的差異。僅在關(guān)鍵點附近計算特征也極大地減少了系統(tǒng)開銷并提高了運行速度。此外,人臉關(guān)鍵點檢測方法,可以用于人臉的表情、動作檢測,從而可以用于實現(xiàn)包括人物性別、年齡等屬性的檢測,以及活體人臉檢測、遮擋物(如眼鏡)檢測及去除等眾多應(yīng)用場景。在安博會上,這套視頻身份認(rèn)證系統(tǒng)就包含一套完整強大的眼鏡檢測與去除算法,使得即使目標(biāo)佩戴(或摘除)眼鏡也能獲得準(zhǔn)確的認(rèn)證結(jié)果。

  人臉比對算法是對樣本數(shù)據(jù)進(jìn)行特征描述和分類的問題,在計算機領(lǐng)域稱作模式識別或模式分類。模式識別試圖表述屬于特定類別的數(shù)據(jù)特性,建立一個數(shù)學(xué)模型使得屬于一個類別的數(shù)據(jù)差別盡量的小,而不同類別則存在較大的差別。模式識別方法多種多樣,但在傳統(tǒng)的人臉識別體系中,所有的方法都建立在特征向量已知的情況下。人為設(shè)定的特征提取過程在一定程度上制約了傳統(tǒng)架構(gòu)的人臉比對算法的性能。而且傳統(tǒng)的識別方法在一定程度上依賴于用來訓(xùn)練學(xué)習(xí)的數(shù)據(jù),不能快捷的將最新的數(shù)據(jù)反映到最新的模型中。

  人臉識別技術(shù)的未來

  傳統(tǒng)人臉識別技術(shù)必須要使用人工設(shè)定的特征提取規(guī)則計算特征向量,近年來,“深度學(xué)習(xí)”架構(gòu)的出現(xiàn)使圖像識別技術(shù)的架構(gòu)理念出現(xiàn)了革命性的變化。

  深度學(xué)習(xí)架構(gòu)最大的特色是利用深度網(wǎng)絡(luò)強大的表述能力,“自動學(xué)習(xí)”提取有利于識別分類的圖像信息。系統(tǒng)將不斷隨著識別的進(jìn)行而更新預(yù)測參數(shù),海量的圖像數(shù)據(jù)有利于提高準(zhǔn)確率。近年來,隨著存儲設(shè)備、計算設(shè)備等硬件性能的增強,原本制約深度架構(gòu)性能的瓶頸一一得到解決。同時,大數(shù)據(jù)時代所帶來的需求與機遇也都促使深度學(xué)習(xí)這種全新的思維方式越來越多的被應(yīng)用于各種模式識別問題中。在人臉識別領(lǐng)域,深度學(xué)習(xí)架構(gòu)已經(jīng)獲得了遠(yuǎn)超傳統(tǒng)方式,甚至出現(xiàn)超過人眼的識別結(jié)果。

  然而,構(gòu)建深度學(xué)習(xí)架構(gòu)對于技術(shù)人員的專業(yè)知識和經(jīng)驗要求是很高的。同時,海量的人臉數(shù)據(jù)也并非所有的企業(yè)所能獲得的。所以在強大的技術(shù)力量與資源支持下,目前不少廠商也在正在努力構(gòu)建一套自己的深度學(xué)習(xí)架構(gòu),相信在不遠(yuǎn)的將來,準(zhǔn)確率更高的人臉比對方法很快將出現(xiàn)在市場上。

人臉識別技術(shù)發(fā)展及應(yīng)用分析

淺談人臉識別技術(shù)和市場發(fā)展趨勢

參與評論
回復(fù):
0/300
文明上網(wǎng)理性發(fā)言,評論區(qū)僅供其表達(dá)個人看法,并不表明a&s觀點。
0
關(guān)于我們

a&s傳媒是全球知名展覽公司法蘭克福展覽集團旗下的專業(yè)媒體平臺,自1994年品牌成立以來,一直專注于安全&自動化產(chǎn)業(yè)前沿產(chǎn)品、技術(shù)及市場趨勢的專業(yè)媒體傳播和品牌服務(wù)。從安全管理到產(chǎn)業(yè)數(shù)字化,a&s傳媒擁有首屈一指的國際行業(yè)展覽會資源以及豐富的媒體經(jīng)驗,提供媒體、活動、展會等整合營銷服務(wù)。

免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請聯(lián)系我們,本站核實后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟賠償!敬請諒解!
? 2024 - 2030 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法蘭克福展覽(深圳)有限公司版權(quán)所有 粵ICP備12072668號 粵公網(wǎng)安備 44030402000264號
用戶
反饋