來自英偉達(Nvidia)、多倫多大學(xué)(University of Toronto)和多倫多矢量人工智能研究所(Vector Institute for Artificial Intelligence)的研究人員設(shè)計了一種方法,可以更精確地探測和預(yù)測物體的起點和終點。這些知識可以改進現(xiàn)有計算機視覺模型的推理,并為未來的模型標記訓(xùn)練數(shù)據(jù)。
在研究人員的實驗中,語義細化的邊緣對齊學(xué)習(steal)能夠?qū)⒆钕冗M的casenet語義邊界預(yù)測模型的精度提高4%。更精確地識別物體的邊界可以應(yīng)用于計算機視覺任務(wù),從圖像生成到三維重建到物體檢測。
STEAL可用于改進現(xiàn)有的CNNs或邊界檢測模型,但研究人員還認為它可以幫助他們更有效地標記或注釋計算機視覺模型的數(shù)據(jù)。為證明這一點,STEAL方法用于改進城市景觀,這是2016年首次在計算機視覺和模式識別(CVPR)會議上引入的城市環(huán)境數(shù)據(jù)集。
在GitHub上,STEAL框架以像素為單位學(xué)習和預(yù)測對象邊緣,研究人員稱之為“主動對齊”?!霸谟?xùn)練過程中對注釋噪聲進行明確的推理,以及為網(wǎng)絡(luò)提供一個從端到端排列不當?shù)臉撕炛袑W(xué)習的分級公式,也有助于產(chǎn)生結(jié)果?!?/p>