人工智能的學習能力是讓人類羨慕的,特別是讓計算機具備理解人類語言的人工智能(AI)更是科技上的一大進步,但是語言本就是意識形態(tài)的產(chǎn)物,而今,廣泛學習人類語言的人工智能工具已經(jīng)出現(xiàn)了明顯的種族和性別偏見。我們禁不住問:人工智能向誰學壞了?
人工智能出現(xiàn)種族偏見和性別偏見
一項研究發(fā)現(xiàn),計算機在學習人類語言的同時還吸收了人類文化中的一些根深蒂固的觀念,出現(xiàn)了相同的人類偏見。普林斯頓大學信息技術(shù)政策中心的計算機科學家們發(fā)現(xiàn)了這一問題,他們解釋,計算機 AI 出現(xiàn)種族歧視和偏見源于算法偏差造成的。此前心理學家曾經(jīng)做過一項稱為“隱性關(guān)聯(lián)測試(IAT)”,測試已揭示人類的偏見。而在新的研究中,AI 在學習人類語言的時候也把這種關(guān)聯(lián)詞學到其中,從而也出現(xiàn)像人一樣的性別種族偏見。
這項研究被刊登在 2017 年 4 月 14 日發(fā)表的《科學》雜志上,為了揭示 AI 在語言學習中可能出現(xiàn)的偏見,研究團隊們根據(jù) IAT 創(chuàng)建了新的統(tǒng)計檢測,重點關(guān)注一種名為“單詞嵌入”機器學習工具。結(jié)果發(fā)現(xiàn)這種學習算法改變了計算機解讀語音和文本的方式,結(jié)果表明,算法與 IAT 一樣擁有同樣的偏見,也就是把表示愉快的單詞與(美國和英國的)白人面孔聯(lián)系起來。這將意味著算法的存在也會讓隱性關(guān)聯(lián)出現(xiàn)在 AI 之中,從而也會帶來人類偏見。更嚴重的是,由于 AI 的學習速度驚人,這種人類偏見或許比現(xiàn)實社會中的還要嚴重。
關(guān)于“人工智能學壞”的幾點想法
偏見只是冰山一角,人工智能的快速學習能力可能是把雙刃劍。曾有研究表明,性別歧視和種族偏見將會對人類行為產(chǎn)生深遠的影響。研究從面試角度進行,對于非洲裔美國人,如果面試者的名字是歐洲裔美國人,即使簡歷內(nèi)容相同,后者所能獲得的面試邀請將比前者多出 50%。而我們使用 AI,并不希望它給我們帶來任何行動上的麻煩。如何把握,還是一個重大課題。
技術(shù)本身沒錯,但是如何應用以及產(chǎn)生的后果則會淪為道德或者社會問題。其實,原則上,我們可以建立一些系統(tǒng)對帶有偏見的決定進行檢測,然后采取行動,并與其他人一起呼吁建立一個人工智能監(jiān)管機構(gòu)。這是一項非常復雜的任務(wù),但作為一種社會責任,我們不應回避。