中文字幕日韩一区二区不卡,亚洲av永久无码精品天堂动漫,亚洲av无码国产精品麻豆天美,最新版天堂中文在线,中文字幕视频在线看

a&s專業(yè)的自動(dòng)化&安全生態(tài)服務(wù)平臺(tái)
公眾號(hào)
安全自動(dòng)化

安全自動(dòng)化

安防知識(shí)網(wǎng)

安防知識(shí)網(wǎng)

手機(jī)站
手機(jī)站

手機(jī)站

大安防供需平臺(tái)
大安防供需平臺(tái)

大安防供需平臺(tái)

資訊頻道橫幅A1
首頁 > 資訊 > 正文

谷歌研究員質(zhì)疑“看臉識(shí)罪犯”

去年11月,一篇“看臉識(shí)罪犯”的論文令學(xué)術(shù)界和輿論界炸開了鍋。
資訊頻道文章B
  去年11月,一篇“看臉識(shí)罪犯”的論文令學(xué)術(shù)界和輿論界炸開了鍋。

  這篇上傳在預(yù)印本網(wǎng)站arXiv上的論文題為《基于面部圖像的自動(dòng)犯罪概率推斷》(Automated Inference on Criminality using Face Images)。在實(shí)驗(yàn)中,上海交通大學(xué)教授武筱林及其博士生張熙選取了1856張中國(guó)成年男子的面部照片,其中730張是已經(jīng)定罪的罪犯身份證照片(330張來自網(wǎng)上的通緝令,400張由一家簽署過保密協(xié)議的派出所提供),其余1126張是在網(wǎng)絡(luò)上抓取的普通人照片。經(jīng)過機(jī)器學(xué)習(xí),算法鑒別出犯罪嫌疑人的準(zhǔn)確率達(dá)到89%。

  此后,武筱林收到了雪片般飛來的郵件,有些就學(xué)術(shù)問題進(jìn)行了交流,有些則直接敦促他“撤稿”。而在半年之后,三名美國(guó)作者撰寫萬字長(zhǎng)文,向武筱林隔空喊話,指責(zé)其研究在搞“科學(xué)種族主義”。

  上述三名作者中,Blaise Agüera y Arcas是機(jī)器學(xué)習(xí)領(lǐng)域的著名工程師,2013年從微軟跳槽到谷歌;Margaret Mitchell同樣是谷歌的人工智能研究員;Alexander Todorov則是普林斯頓大學(xué)的神經(jīng)科學(xué)教授。

  這篇洋洋灑灑的萬字長(zhǎng)文,從提出“天生犯罪人”理論的意大利外科醫(yī)生龍勃羅梭,寫到對(duì)猶太人進(jìn)行面相研究的納粹教材,暗指武筱林的研究是這些“前輩”的繼任者。

  在文章中,三名美國(guó)作者在技術(shù)層面提出了一些質(zhì)疑,譬如實(shí)驗(yàn)樣本數(shù)據(jù)集過小,容易造成過擬合;罪犯組照片的著裝更為隨意,而非罪犯組的照片很多都穿著襯衫;此外,非罪犯組照片更多地在微笑。但文章最核心的擔(dān)憂是,由于人類司法系統(tǒng)中存在一些歧視(譬如美國(guó)司法對(duì)白人和黑人存在量刑歧視),用這些帶有歧視的人類數(shù)據(jù)訓(xùn)練機(jī)器,機(jī)器得到的結(jié)果也會(huì)是歧視性的。而若將這些內(nèi)嵌歧視的算法用作司法工具,那么就會(huì)形成一個(gè)歧視性的反饋循環(huán),讓歧視在社會(huì)中更為鞏固。

  “基于面部特征的深度學(xué)習(xí)絕不該應(yīng)用為‘加速’司法公正的工具,如果真的這么做的話,反而會(huì)讓不公正長(zhǎng)存于世。”文章這樣結(jié)尾道。

  5月14日,武筱林撰文進(jìn)行了獨(dú)家回應(yīng)。他指責(zé)這種隔空點(diǎn)名的方式并非“我們所熟悉的學(xué)術(shù)交流”,而是政治斗爭(zhēng)上扣帽子的手法。武筱林提到,他們?cè)谡撐闹忻鞔_聲明“沒有興趣也不夠格去解讀實(shí)驗(yàn)結(jié)果”,卻“被”解讀了。三位美國(guó)作者無視聲明,將論文原話斷章取義,湊成主觀臆斷強(qiáng)加于他們,扣上了一頂大帽子。

  在文章中,武筱林還回應(yīng)了許多網(wǎng)友提出的“把教授自己的臉放進(jìn)去試試”的問題,澄清了一種常見的“基礎(chǔ)概率謬誤”,再次強(qiáng)調(diào)他們的研究無意也無法用于實(shí)踐。

  此外,武筱林也對(duì)外界的幾點(diǎn)技術(shù)質(zhì)疑作出回應(yīng)。他總結(jié)道,“我們感謝所有針對(duì)論文的問題和討論,但堅(jiān)決反對(duì)歪曲我們的初衷”,“這既不專業(yè),也很傲慢。”

  “僅僅在文章中用到(面相學(xué))這個(gè)詞,就足夠貼一個(gè)科學(xué)種族主義的標(biāo)簽了嗎?”這是武筱林的疑問。

  人工智能倫理討論無需扣帽子和歪曲事實(shí)

  2016年11月,我和我的博士生張熙在arXiv上貼出了一篇題為 “Automated Inference on Criminality using Face Images”的論文。該論文在各國(guó)學(xué)術(shù)界,尤其是互聯(lián)網(wǎng)上引起了廣泛的關(guān)注和爭(zhēng)議。近日,Arcas等三人在Medium網(wǎng)站上發(fā)表了《相面術(shù)的新外衣》(Physiognomy’s New Clothes)一文。我們贊同三位作者的觀點(diǎn),即AI研究要有益于社會(huì),但我們也發(fā)現(xiàn),他們對(duì)于我們的工作,尤其是我們的研究動(dòng)機(jī)和目標(biāo)存在諸多誤讀。

  扣帽子(name calling)

  該文章(即《相面術(shù)的新外衣》,下同)的作者暗示我們有惡意的種族主義動(dòng)機(jī)。他們認(rèn)為這種暗示很明顯,導(dǎo)致我們立馬在網(wǎng)絡(luò)上,尤其是中國(guó)網(wǎng)民那里成了千夫所指。我們論文里從未宣稱要把我們的研究方法用作司法工具,我們對(duì)相關(guān)性的討論也從未延伸到因果關(guān)系。任何以客觀心態(tài)讀過我們論文的人,都會(huì)明白我們只是想知道,機(jī)器學(xué)習(xí)是否有潛力像人類一樣,對(duì)人臉形成社會(huì)性的看法。要知道,這種同時(shí)基于觀察者和被觀察者的看法是很復(fù)雜、很敏銳的。

  我們的研究是在挑戰(zhàn)機(jī)器學(xué)習(xí)的上限,并將人臉自動(dòng)識(shí)別從生物學(xué)維度(比如種族、性別、年齡、表情等)拓展到社會(huì)心理學(xué)維度。我們只是好奇,能否教會(huì)機(jī)器復(fù)制人類對(duì)陌生人的第一印象(個(gè)性、風(fēng)格、器宇等),通過圖靈測(cè)試。正如我們?cè)谡撐闹兴觯庇X上,我們認(rèn)為對(duì)于面部的犯罪性印象是個(gè)比較容易測(cè)試的選擇,事后證明,這是個(gè)不幸的選擇。

  “為了驗(yàn)證我們的假設(shè),即一個(gè)人面部的物理特征與其內(nèi)在特質(zhì)、社會(huì)行為間存在相關(guān)性,運(yùn)用現(xiàn)代自動(dòng)分類器去區(qū)別罪犯和非罪犯,測(cè)試其準(zhǔn)確率是非常有說服力的。如果面部特征和社會(huì)屬性真的相關(guān),這兩類人群應(yīng)該是最容易區(qū)分的。這是因?yàn)?,犯罪需要人格中存在很多不正常(離群值)。如果分類器的區(qū)別率很低,那么我們就能有把握地否定對(duì)面部進(jìn)行社會(huì)性推定的做法。

  令人震驚的是,來自谷歌的作者們將上述段落斷章取義,湊成了下述臆斷強(qiáng)加于我們。

  “那些上唇更彎曲,兩眼間距更窄的人在社會(huì)秩序上更低級(jí),傾向于(用武和張的原話說)‘人格中存在很多不正常(離群值)’,最終導(dǎo)致在法律上更可能被判定犯罪。”

  我們認(rèn)同“犯罪性”(criminality)這個(gè)詞有點(diǎn)尖銳,我們應(yīng)該打上引號(hào)的。在使用這個(gè)詞的字面意思,把它作為機(jī)器學(xué)習(xí)的參考標(biāo)準(zhǔn)(“ground truth”)的同時(shí),我們沒有警告讀者,輸入的數(shù)據(jù)存在噪點(diǎn)。這是我們的嚴(yán)重疏忽。然而,在論文中我們始終保持了一種嚴(yán)肅的中立性;在引言部分,我們聲明道:

  “在本文中,我們無意也不夠格去討論社會(huì)偏見問題。我們只是好奇,全自動(dòng)的犯罪性推定能有多高的準(zhǔn)確率。一開始,我們的直覺是機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺會(huì)推翻面相學(xué),但結(jié)果是相反的。”

  我們清楚地聲明了無意也不夠格去解讀,但卻被來自谷歌的作者們過度解讀了。這不是我們習(xí)慣的學(xué)術(shù)交流方式。此外,我們還后悔不該選擇使用“physiognomy”這個(gè)詞。它最接近的中文翻譯是“面相學(xué)”。我們對(duì)這個(gè)詞在英語國(guó)家里固有的負(fù)面涵義不夠敏感。但是,僅僅在文章中用到這個(gè)詞就足夠貼一個(gè)科學(xué)種族主義的標(biāo)簽了嗎?

  “基礎(chǔ)概率謬誤”(base rate fallacy)

  來自谷歌的作者們是“為廣大的受眾,不只是為研究者”寫這篇文章的,但他們隨意地忽視了一些非技術(shù)流的博客和媒體報(bào)道里出現(xiàn)的“基礎(chǔ)概率謬誤”跡象。

  人腦往往會(huì)被一個(gè)特定事件的高條件概率鎖住,而忘記了該事件在大環(huán)境里發(fā)生的極低概率。我們文章中最強(qiáng)的基于深度學(xué)習(xí)的面相分類器有89%的識(shí)別率(注意:這是基于我們目前的訓(xùn)練數(shù)據(jù),還有待用更大的數(shù)據(jù)核實(shí)),很多人就認(rèn)為,這么高,這還不一試一個(gè)準(zhǔn)?。▏?guó)外就有文章報(bào)道我們時(shí)就驚呼“correct 9 out 10 times”)。有人在網(wǎng)上調(diào)侃 “教授,把你的臉放進(jìn)去試試”。好吧,這倒是蠻好玩的。假設(shè)我的臉被測(cè)陽性(被認(rèn)定為罪犯),我有多高概率有犯罪傾向呢?計(jì)算這個(gè)概率需要用貝葉斯定理:

  P(罪|+) = P(+|罪)*P(罪) / [ P(+|罪)*P(罪) + P(+|非)*(1-P(罪)) ]

  上式中P(+|罪)=0.89 是罪犯的臉被我們深度學(xué)習(xí)測(cè)試方法判陽性的概率,P(罪)=0.003是中國(guó)的犯罪率,P(+|非)=0.07是我們方法假陽性(把一個(gè)非罪犯判定為罪犯)的概率。將這些數(shù)值代入貝葉斯公式,結(jié)果是武筱林有3.68%的概率犯罪。我想,這一路從89%到3.68%走下來,原來不少罵我們的人就釋懷了吧。那些叫著要紀(jì)委用我們的方法的網(wǎng)友也該歇歇了。不過,我這里再次鄭重聲明,我們堅(jiān)決反對(duì)在執(zhí)法司法中使用我們的方法,原因不僅僅是上面演算的結(jié)果。

  基礎(chǔ)概率謬誤是媒體慣用的伎倆,夸張地描述某項(xiàng)大眾所不熟悉的新技術(shù)或新研究,借此操縱大眾,逐步灌輸對(duì)人工智能研究的不理性恐懼。

  無用輸入(Garbage in)?

  盡管我們對(duì)來自谷歌的作者們的精英主義論調(diào)感到不適,但我們認(rèn)同他們提出的進(jìn)步性的社會(huì)價(jià)值。他們實(shí)在沒必要像編年史一樣列出歷史上那些臭名昭著的種族主義者,接著把我們列在后面。但起碼在理論上,獨(dú)立于主流社會(huì)觀念的研究客觀性是存在的。

  我們都很了解“無用輸入”和“無用輸出”。然而,來自谷歌的作者們似乎在說,因?yàn)檩斎霐?shù)據(jù)中人類的偏見是無法避免的,所以機(jī)器學(xué)習(xí)工具無法用于社會(huì)計(jì)算。就像大多數(shù)技術(shù)一樣,機(jī)器學(xué)習(xí)是中性的。如果像他們說的,機(jī)器學(xué)習(xí)可以用來鞏固社會(huì)計(jì)算問題中的人類偏見,但機(jī)器學(xué)習(xí)也可以用于發(fā)現(xiàn)并矯正人類偏見。他們擔(dān)心反饋循環(huán)的問題,然而,反饋本身就既可以是負(fù)向的,也可以是正向的。就算“犯罪性”是個(gè)十分復(fù)雜的問題,受過良好訓(xùn)練的人類專家可以努力確保訓(xùn)練數(shù)據(jù)的客觀性,也就是說,能使用獨(dú)立于嫌犯外貌的正確判決。如果數(shù)據(jù)標(biāo)簽是不帶人類偏見的,那機(jī)器學(xué)習(xí)在客觀性上無疑是優(yōu)于人類判斷的。

  即使標(biāo)簽中存在噪點(diǎn),無論是隨機(jī)的還是系統(tǒng)性的,也有科學(xué)辦法能洗滌和恢復(fù)/提高結(jié)果的準(zhǔn)確度。我們不能畏于民粹主義就在科學(xué)知識(shí)上讓步。

  過擬合(overfitting)的風(fēng)險(xiǎn)

  批評(píng)者很快就指出了我們實(shí)驗(yàn)中所用的樣本集較小,存在數(shù)據(jù)過擬合的風(fēng)險(xiǎn)。我們痛苦地意識(shí)到這個(gè)缺點(diǎn),但鑒于某些顯然的原因,我們難以拿到更多的中國(guó)男性罪犯身份證照片(這篇批評(píng)文章可能讓我們豐富數(shù)據(jù)集的希望化為泡影)。然而,在如下所示的論文3.3章節(jié),我們已盡全力驗(yàn)證我們的發(fā)現(xiàn),這又被他們完全忽視了。

  “鑒于社會(huì)上對(duì)這個(gè)話題的敏感性和反響度,以及對(duì)面相術(shù)的質(zhì)疑,我們?cè)诠冀Y(jié)果前異常謹(jǐn)慎。我們故意跟自己唱反調(diào),設(shè)計(jì)實(shí)施了以下實(shí)驗(yàn),以挑戰(zhàn)分類器的正確性……”

  我們把訓(xùn)練集中的照片以五五開的概率隨機(jī)標(biāo)簽為罪犯或非罪犯,看看四個(gè)分類器能否以超過50%的概率區(qū)別這兩組照片。結(jié)果是四個(gè)分類器都失敗了。一些類似的、更具挑戰(zhàn)性的測(cè)試結(jié)果也是如此(詳情參見論文)。這些實(shí)證結(jié)果,說明論文中分類器出色的表現(xiàn)并非由數(shù)據(jù)過擬合所致。否則,在樣本集大小和類型一樣的情況下,分類器也應(yīng)能夠區(qū)別兩組隨機(jī)標(biāo)簽的數(shù)據(jù)。

  “白領(lǐng)子”( white collar)

  批評(píng)文章也質(zhì)疑道,罪犯組的身份證照片大多是不穿襯衫的,而非罪犯組的身份證照片大多穿了白領(lǐng)子的襯衫。在這點(diǎn)上,我們忘了說明,在實(shí)驗(yàn)中,我們訓(xùn)練和測(cè)試使用的圖片全部是只摳出了臉部的。

  但不管怎樣,這個(gè)“白領(lǐng)子”線索還牽出了另一個(gè)重要的細(xì)節(jié),在這里我們需要向讀者們道歉。這個(gè)細(xì)節(jié)是,我們無法控制那些實(shí)驗(yàn)對(duì)象的社會(huì)經(jīng)濟(jì)地位。我們不是不想控制,但基于保密協(xié)議,我們不能拿到元數(shù)據(jù)??紤]到這個(gè)微小差別,我們預(yù)期分類器的準(zhǔn)確率在控制社會(huì)經(jīng)濟(jì)地位這一項(xiàng)后會(huì)下降。這是基于社會(huì)歧視的一個(gè)推論。事實(shí)上,也因此,我們認(rèn)為這項(xiàng)研究結(jié)果對(duì)社會(huì)科學(xué)來說是有意義的。

  在論文中,我們還采取了一切措施,避免機(jī)器學(xué)習(xí)方法,特別是CNN,檢測(cè)到圖像間一些淺表的差距,比如壓縮噪點(diǎn)或照相機(jī)的不同(參見論文3.3章節(jié))。

  總之,我們感謝所有針對(duì)論文的問題和討論,但堅(jiān)決反對(duì)歪曲我們的初衷。比如James Weidmann說“武和張論文的意圖正是如此”,這既不專業(yè),也很傲慢。

參與評(píng)論
回復(fù):
0/300
文明上網(wǎng)理性發(fā)言,評(píng)論區(qū)僅供其表達(dá)個(gè)人看法,并不表明a&s觀點(diǎn)。
0
關(guān)于我們

a&s傳媒是全球知名展覽公司法蘭克福展覽集團(tuán)旗下的專業(yè)媒體平臺(tái),自1994年品牌成立以來,一直專注于安全&自動(dòng)化產(chǎn)業(yè)前沿產(chǎn)品、技術(shù)及市場(chǎng)趨勢(shì)的專業(yè)媒體傳播和品牌服務(wù)。從安全管理到產(chǎn)業(yè)數(shù)字化,a&s傳媒擁有首屈一指的國(guó)際行業(yè)展覽會(huì)資源以及豐富的媒體經(jīng)驗(yàn),提供媒體、活動(dòng)、展會(huì)等整合營(yíng)銷服務(wù)。

免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺(tái)。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請(qǐng)聯(lián)系我們,本站核實(shí)后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟(jì)賠償!敬請(qǐng)諒解!
? 2024 - 2030 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法蘭克福展覽(深圳)有限公司版權(quán)所有 粵ICP備12072668號(hào) 粵公網(wǎng)安備 44030402000264號(hào)
用戶
反饋