中文字幕日韩一区二区不卡,亚洲av永久无码精品天堂动漫,亚洲av无码国产精品麻豆天美,最新版天堂中文在线,中文字幕视频在线看

a&s專業(yè)的自動(dòng)化&安全生態(tài)服務(wù)平臺(tái)
公眾號(hào)
安全自動(dòng)化

安全自動(dòng)化

安防知識(shí)網(wǎng)

安防知識(shí)網(wǎng)

手機(jī)站
手機(jī)站

手機(jī)站

大安防供需平臺(tái)
大安防供需平臺(tái)

大安防供需平臺(tái)

資訊頻道橫幅A1
首頁 > 資訊 > 正文

人臉識(shí)別新應(yīng)用:你和明星有多像?

近期,微軟發(fā)布了一款有趣的應(yīng)用——“微軟我們”(TwinsOrNot.net),只需任意上傳兩張人物照片,就可以知道他們長的有多像,比如,測試你是否和某個(gè)明星長得很像,或者夫妻 男女朋友是不是有夫妻相等。
資訊頻道文章B

  近期,微軟發(fā)布了一款有趣的應(yīng)用——“微軟我們”(TwinsOrNot.net),只需任意上傳兩張人物照片,就可以知道他們長的有多像,比如,測試你是否和某個(gè)明星長得很像,或者夫妻/男女朋友是不是有夫妻相等。與前一陣風(fēng)靡全球的How-Old.net相似,它們都很巧妙地將人臉識(shí)別與社交網(wǎng)絡(luò)中的人際交往結(jié)合在一起,雖然不能做到百分之百精確,但高科技加詼諧的人際交往和傳播效果,可以說是人臉識(shí)別技術(shù)和社交網(wǎng)絡(luò)發(fā)展到一定階段、自然而然的應(yīng)用創(chuàng)新。

  在可以預(yù)見的未來,這樣的創(chuàng)新會(huì)越來越多,而且將不僅限于娛樂或是創(chuàng)造茶余飯后的談資。在Build 2015開發(fā)者大會(huì)上,微軟推出了基于云計(jì)算平臺(tái)Azure的牛津計(jì)劃(Project Oxford),它可以提供一系列基于機(jī)器學(xué)習(xí)的技術(shù)服務(wù),除了人臉識(shí)別,還有語音處理、計(jì)算機(jī)視覺和語言理解等智能服務(wù),賦予開發(fā)者開發(fā)人工智能應(yīng)用的能力。每個(gè)開發(fā)者都可以利用這些匯聚微軟研究院多年研究成果的API設(shè)計(jì)、開發(fā)自己的應(yīng)用,而無需成為數(shù)據(jù)科學(xué)家或者掌握相關(guān)基礎(chǔ)技術(shù)。基于牛津計(jì)劃的人臉識(shí)別API,微軟工程師僅用了幾個(gè)小時(shí)就開發(fā)出前文提到的人臉識(shí)別應(yīng)用最初的演示版。

  開發(fā)者們可以用牛津計(jì)劃的API實(shí)現(xiàn)很多有趣的想法,而作為提供人臉識(shí)別技術(shù)的中國研究團(tuán)隊(duì),我們要做的除了根據(jù)用戶反饋快速迭代精進(jìn)API,更要從研究本源上不斷優(yōu)化人臉識(shí)別算法。

  大量”閱讀“照片學(xué)習(xí)辨識(shí),深度學(xué)習(xí)成主流識(shí)別方式

  微軟亞洲研究院在人臉識(shí)別領(lǐng)域已經(jīng)耕耘了近20年時(shí)間,從最早的子空間方法,到后來的局部描述子方法,再到現(xiàn)在的深度學(xué)習(xí)方法,我們歷經(jīng)了所有人臉識(shí)別技術(shù)的主流研究方法。

  在20世紀(jì)80、90年代,人臉識(shí)別的誤差還比較大,應(yīng)用領(lǐng)域也很有限,通常在檢查證件照等特定領(lǐng)域才會(huì)使用。當(dāng)時(shí)的技術(shù)頗為簡單,通常是將圖像經(jīng)簡單的預(yù)處理后線性地映射到一個(gè)高維向量空間中。由于只是線性模型能力的不足,那時(shí)的識(shí)別準(zhǔn)確率與今天相比大概是數(shù)10倍的差距。

  在2000年~2010年,局部描述子方法成為研究主流。它在人臉的局部區(qū)域(如眉、眼、鼻、嘴等)抽取局部描述子,再線性或非線性地映射到高維向量空間中去。這類方法的識(shí)別準(zhǔn)確率較上一階段的子空間方法有很大提升。不過因?yàn)樘卣骱湍P褪冀K是人工設(shè)計(jì)的,所以仍然存在一定的局限性。

  從2012年至今,深度學(xué)習(xí)方法在學(xué)術(shù)界被迅速地廣泛使用。通過深層神經(jīng)網(wǎng)絡(luò)訓(xùn)練出來的人臉識(shí)別算法極大地提高了識(shí)別精度。簡而言之,就是讓已經(jīng)在網(wǎng)絡(luò)結(jié)構(gòu)中預(yù)設(shè)了人臉識(shí)別先驗(yàn)知識(shí)的神經(jīng)網(wǎng)絡(luò)大量“閱讀”很多人在各種環(huán)境(例如光照,視角,表情)下拍攝到的不同人臉照片,自動(dòng)學(xué)習(xí)并提取人臉各個(gè)部位和尺度的低,中,高層特征。在大量學(xué)習(xí)之后,它便能根據(jù)所提供的監(jiān)督信息將不同的人分開。

  隨著計(jì)算機(jī)技術(shù)的發(fā)展,廉價(jià)的PC+GPU的方式可以提供上千個(gè)并行的計(jì)算單元,這讓深度學(xué)習(xí)一下子在多個(gè)計(jì)算機(jī)研究領(lǐng)域異軍突起,成就了相當(dāng)多全新的研究方法。

  人臉識(shí)別的基礎(chǔ)環(huán)節(jié)

  How-Old.net和“微軟我們”主要是對(duì)靜態(tài)的人臉照片進(jìn)行識(shí)別,這只使用了人臉識(shí)別技術(shù)中的一小部分。一個(gè)完整的人臉識(shí)別系統(tǒng),可以在含有人臉的圖片或視頻流中自動(dòng)檢測和跟蹤人臉,進(jìn)而達(dá)到識(shí)別目的,通常也叫做人像識(shí)別、面部識(shí)別。總的來說,人臉識(shí)別系統(tǒng)可以大致分為以下四個(gè)部分:

  首先,檢測人臉在哪里。首先要從照片中識(shí)別出人臉在哪里,它的大小、位置等。目前常用的是級(jí)聯(lián)分類器,可以利用人工設(shè)計(jì)的特征模型或深度學(xué)習(xí)模式進(jìn)行一級(jí)一級(jí)的篩選。若要加快速度,可在前期使用人工設(shè)計(jì)的特征模型,快速篩去不是人臉的部位,后期利用深度學(xué)習(xí)去精細(xì)化地判斷每一個(gè)留下的部位是否是人臉。

  其次,定位人臉和各個(gè)部位。在給定人臉之后,再確定出鼻子、眼睛、嘴巴等,這通常采用回歸預(yù)測的方法。回歸器可以有很多種,隨機(jī)森林方法、深度學(xué)習(xí)方法都能實(shí)現(xiàn)。以深度學(xué)習(xí)為例,訓(xùn)練的時(shí)候告訴回歸器到底眼睛在哪里、鼻尖在哪里,預(yù)測值和真實(shí)值的距離越小越好,并據(jù)此不斷調(diào)整回歸器的參數(shù),用成千上萬的人臉照片反復(fù)訓(xùn)練,直到回歸器能夠準(zhǔn)確輸出人臉各個(gè)器官的準(zhǔn)確位置信息。

  第三,人臉特征的匹配與識(shí)別。這個(gè)過程是將待識(shí)別的人臉特征與已經(jīng)得到的人臉特征模板進(jìn)行比較,根據(jù)詳細(xì)程度對(duì)人臉的身份信息進(jìn)行判斷。使用深度學(xué)習(xí)方法可以大大簡化這一過程,因?yàn)樗械奶卣髌ヅ涠际怯缮窠?jīng)網(wǎng)絡(luò)自動(dòng)實(shí)現(xiàn),這也是目前最有效的識(shí)別方法。

  最后,人臉屬性的識(shí)別。用戶感興趣的人臉屬性可能包含很多,比如年齡(使用在How-Old.net中),性別,表情,種族,發(fā)型,是否戴眼鏡,胡子的類型。這類屬性通常使用深度學(xué)習(xí)方法可直接進(jìn)行分類或回歸。

  高識(shí)別率與用戶體驗(yàn)

  雖然經(jīng)常聽說有人臉識(shí)別算法的準(zhǔn)確率在某個(gè)特定的評(píng)測數(shù)據(jù)庫上已經(jīng)超過人類的識(shí)別率,但在實(shí)際應(yīng)用場景中,并沒有一個(gè)放之四海的基準(zhǔn)可以去衡量人臉識(shí)別算法的準(zhǔn)確率。針對(duì)不同的應(yīng)用,訓(xùn)練數(shù)據(jù)和算法共同決定了識(shí)別率和用戶體驗(yàn)。

  錯(cuò)誤接受率是人臉識(shí)別中的一個(gè)重要指標(biāo),通常錯(cuò)誤接受率越低越好。不能錯(cuò)放任何一個(gè)人進(jìn)去,嚴(yán)格確保安全,但同時(shí)也可能意味著真正的用戶在多次嘗試刷臉之后也進(jìn)不去,這大大降低了最終的用戶體驗(yàn)。所以在實(shí)際應(yīng)用中,安全與用戶體驗(yàn)的謹(jǐn)慎平衡是必須要考慮的重要因素。所以,當(dāng)我們看到人臉識(shí)別應(yīng)用的巨大進(jìn)步時(shí),仍需要客觀、嚴(yán)謹(jǐn)?shù)貙?duì)待人臉識(shí)別算法本身,時(shí)刻提醒自己,它的局限性猶存,我們還需要不斷尋求更多、更有效的方法去提升它。

  結(jié)束語

  科學(xué)研究的每一次進(jìn)步,都會(huì)催生多種多樣的創(chuàng)新應(yīng)用。深度學(xué)習(xí)、社交網(wǎng)絡(luò)、移動(dòng)互聯(lián)網(wǎng)的興起相互交叉,加之人臉識(shí)別研究多年的積累,開啟了人臉識(shí)別應(yīng)用的創(chuàng)新潮,它們或有趣、或?qū)嵱?,并且一定?huì)越來越多?;蛟S在不久的未來,計(jì)算機(jī)就能夠通過人類的表情和肢體語言體會(huì)人類的喜怒哀樂。

相關(guān)閱讀:令人尷尬的生物識(shí)別技術(shù):氣味、糞便、屁股

參與評(píng)論
回復(fù):
0/300
文明上網(wǎng)理性發(fā)言,評(píng)論區(qū)僅供其表達(dá)個(gè)人看法,并不表明a&s觀點(diǎn)。
0
關(guān)于我們

a&s傳媒是全球知名展覽公司法蘭克福展覽集團(tuán)旗下的專業(yè)媒體平臺(tái),自1994年品牌成立以來,一直專注于安全&自動(dòng)化產(chǎn)業(yè)前沿產(chǎn)品、技術(shù)及市場趨勢的專業(yè)媒體傳播和品牌服務(wù)。從安全管理到產(chǎn)業(yè)數(shù)字化,a&s傳媒擁有首屈一指的國際行業(yè)展覽會(huì)資源以及豐富的媒體經(jīng)驗(yàn),提供媒體、活動(dòng)、展會(huì)等整合營銷服務(wù)。

免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺(tái)。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請(qǐng)聯(lián)系我們,本站核實(shí)后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟(jì)賠償!敬請(qǐng)諒解!
? 2024 - 2030 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法蘭克福展覽(深圳)有限公司版權(quán)所有 粵ICP備12072668號(hào) 粵公網(wǎng)安備 44030402000264號(hào)
用戶
反饋