5月9日消息,近期,作為成渝地區(qū)東數(shù)西算的深度參與者,特斯聯(lián)對外公布了其計算機視覺(CV)領(lǐng)域的多個科研突破,并有8篇論文被CVPR、TPAMI等頂級國際學術(shù)會議和期刊收錄。
此次,特斯聯(lián)在 CV 領(lǐng)域的科研突破涵蓋了語義分割、圖像增強、顯著物體識別、遷移學習、行為識別等方面。其中不少創(chuàng)新技術(shù)打破了現(xiàn)有技術(shù)上限,亦開發(fā)了數(shù)個性能更優(yōu)、識別更快、效率更高的模型,這些技術(shù)研究的應用與推廣將會成為特斯聯(lián)賦能城市數(shù)字化、智能化的有力保障。
據(jù)介紹,特斯聯(lián)集團首席科學家兼特斯聯(lián)國際總裁邵嶺及其團隊在該領(lǐng)域中提出的圖像和視頻的識別和學習各算法,縮短了訓練和推理時間,從圖像識別提升、識別效率提升以及解決數(shù)據(jù)標注瓶頸三個方面,提升了整體視覺應用效果。
在圖像識別方面,團隊的技術(shù)突破主要集中在算法層面,囊括背景消除模塊、圖像特征突出等。這些可以從圖像本質(zhì)入手,豐富圖像本身信息,去除多余噪點,為后續(xù)圖像識別提供高清的圖像數(shù)據(jù),是高效率識別的基礎(chǔ)。更有技術(shù)突破采用創(chuàng)新的手法,如加上聲音信息來協(xié)助識別,提高信息準確度。
比如,在被收錄于CVPR的《Learning Non-target Knowledge for Few-shot Semantic Segmentation》(《學習用于小樣本語義分割的非目標知識》)研究中,團隊從挖掘和排除非目標區(qū)域的新角度重新思考了少樣本語義分割,繼而提出了一個新穎的非目標區(qū)域消除(Non-target Region Eliminating)框架,以確保模型免受背景和分散注意力目標的干擾進而獲得準確的目標分割結(jié)果。不僅如此,該研究還提出一個原型對比學習算法,通過精煉原型的嵌入特征以便更好的將目標對象與分散注意力的對象區(qū)分開來。
另外,特斯聯(lián)方面指出,數(shù)據(jù)標注是一個重要的過程,傳統(tǒng)人工數(shù)據(jù)標注費時費力。為此,上述團隊提出了一種新技術(shù)以更高效地解決背后的問題。該研究被收錄于今年的CVPR中,標題為《Category Contrast for Unsupervised Domain Adaptation in Visual Tasks》(《視覺任務中無監(jiān)督域適應的類別對比》)。
具體來看,團隊提出了一種新的類別對比技術(shù)(CaCo),該技術(shù)在無監(jiān)督域適應(UDA)任務的實例判別之上引入了語義先驗,可以有效地用于各種視覺UDA任務。該技術(shù)構(gòu)建了一個具有語義感知的字典,其中包含來自源域和目標域的樣本,每個目標樣本根據(jù)源域樣本的類別先驗分配到一個(偽)類別標簽,以便學習與UDA目標完全匹配的類別區(qū)分但域不變的表征。與當下最先進的方法對比,簡單的CaCo技術(shù)可以實現(xiàn)更優(yōu)越的性能表現(xiàn),也可以成為現(xiàn)有UDA方法的補充,推廣到其他機器學習方法中去,如無監(jiān)督模型適應,開放/部分集適應等。該技術(shù)解決了傳統(tǒng)監(jiān)督學習需要大量人工標注的問題,比現(xiàn)有技術(shù)擁有更高的效率。