今年,《自然》雜志在全球范圍內(nèi)征集了480名科研人員參與問卷調(diào)查,了解他們對人臉識別研究領域一些“棘手”倫理問題的看法。當?shù)貢r間11月18日,相關調(diào)查結果在《自然》官網(wǎng)發(fā)布。
據(jù)了解,480名科研人員主要從事人臉識別、計算機視覺和人工智能方面的工作。從地區(qū)構成來看,67%以上的受訪者來自歐洲和北美,11%來自中國。67%的受訪者在大學工作,15%則在私企工作。但《自然》也強調(diào),這次調(diào)查選擇的是“方便樣本”,不一定能代表科學家的整體觀點。
在人臉識別領域,一些科研項目會使用人臉分析方法研究敏感的個人特征,例如通過外表識別或預測性別、性取向、年齡或種族。這類研究在過往引起過諸多爭議,比如斯坦福大學曾在2017年發(fā)布研究稱,“算法僅憑一張照片區(qū)分直男與同性戀的準確率高達81%”。
《自然》的問卷就此設置了一道多選題。結果顯示,僅有16%的受訪者認為應杜絕此類研究。大多數(shù)受訪者認為這類研究還是有價值的,只是應在研究開始前采取額外的倫理措施:42%的受訪者認為應征得相關主體的知情同意,31%的受訪者表示應與可能受影響的群體代表展開討論。
“是否應該做這些研究在很大程度上取決于其背景:為什么這些研究很重要?誰可能獲益?至少這類研究應該經(jīng)過嚴格的倫理審查,審查過程中還應當包含潛在受到影響的群體的聲音?!币晃谎芯咳藛T寫道。
但也有一些科研人員保持開放的態(tài)度。15%的受訪者認為,研究完成后與可能受影響的群體代表進行討論就夠了。12%的受訪者甚至認為不需要征得相關群體的任何同意或與其討論。
此前,絕大多數(shù)研究會從網(wǎng)上的公開照片集下載人臉大數(shù)據(jù)來訓練和測試算法。照片是公開發(fā)布的,并且經(jīng)常標有知識共享許可協(xié)議(Creative Commons license),所以研究人員通常不會聯(lián)系照片中的人征求同意。
但這樣的做法在近年來遭受了挑戰(zhàn),因為知識共享許可協(xié)議(Creative Commons licenses)僅能代表照片版權所有者(比如攝影師)的許可,而不是照片中人物的許可。2019年,微軟就因為抓取此類照片惹來爭議,最終關閉了“全球最大的公開人臉數(shù)據(jù)庫”MS Celeb。
在《自然》的問卷中,40%的受訪者認為應征得照片人物的明確知情同意。37.1%的受訪者認為應該使用有CC許可的照片。但仍有18.3%的受訪者認為可以“自由使用網(wǎng)絡照片”。
除了研究問題之外,《自然》雜志的受訪者還對人臉識別技術在社會中的應用表示擔憂,尤其是對于私營公司和政府的應用。
在針對政府、警方、私企、高校研究、企業(yè)研究設置的問題中,對私企應用感到“非常不舒服”和“有些不舒服”的受訪者占比高達70%。橫向相比,這一不舒服比例的數(shù)值也是最高的。
“你是否認為私企的人臉識別應用(比如門禁或員工考勤)需要額外的監(jiān)管?”針對這一問題,僅有6%的受訪者表示“不需要”。
66%的受訪者認為應該張貼明顯的提示,讓人們知曉人臉識別攝像頭正在工作;61%認為應該允許人們了解他們被拍到了什么圖像、這些數(shù)據(jù)會被如何處理。其他得票較高的選項還包括允許人們選擇退出、征得人們的明確同意、允許識別身份但禁止識別情緒或人格特征。
受訪者普遍支持警察在刑事調(diào)查中使用人臉識別。這一調(diào)查結果和2019年9月一個英國研究機構對4000位英國成年人進行調(diào)查得出的結論十分相似。
《自然》還發(fā)現(xiàn),大多數(shù)人支持警務、智能手機解鎖或機場驗證旅客身份等場合的應用,但幾乎不支持在學?;蚬ぷ鲌鏊鶓?。
最令受訪者感到不安的是“任何人可以查看他人身份”“在面試中檢測面試者的性格特征和情緒”“企業(yè)在公共場所追蹤行人”,以及“監(jiān)測學生的表情和行為”。
值得注意的是,無論是針對政府還是企業(yè)的人臉識別應用,都有多數(shù)受訪者認為更多的監(jiān)管措施是必要的。
此外,大多數(shù)受訪者希望接受更多倫理方面的培訓。在回答了培訓問題的419名受訪者中,有316名受訪者此前沒有參加過培訓,其中62%認為自己需要培訓。有過培訓經(jīng)歷的受訪者中,則有53%的受訪者認為還需要更多培訓