性別偏見(jiàn)只存在人類之中嗎?機(jī)器學(xué)習(xí)中也存在
掃描二維碼
隨時(shí)隨地手機(jī)看文章
去年秋天,弗吉尼亞大學(xué)計(jì)算機(jī)科學(xué)專業(yè)的教授文森特·歐多尼茲注意到,他所設(shè)計(jì)的圖像識(shí)別軟件出現(xiàn)了一些猜想模式。當(dāng)軟件識(shí)別一張廚房照片時(shí),往往會(huì)將其和女性聯(lián)系起來(lái)而非男性。這讓歐多尼茲懷疑,自己和其他研究人員是否無(wú)意識(shí)地在他們的軟件中摻進(jìn)了偏見(jiàn)。因此,他與同事合作,測(cè)試了兩大組用于訓(xùn)練圖像識(shí)別軟件的圖片集。結(jié)果令人深思。在烹飪和體育活動(dòng)方面,微軟和 Facebook 所收集的照片反映出了明顯的偏見(jiàn)。例如,購(gòu)物和洗滌的圖像與女性相關(guān),而訓(xùn)練和射擊的圖像則與男性相關(guān)。
采用數(shù)據(jù)集進(jìn)行訓(xùn)練的機(jī)器學(xué)習(xí)軟件非但反映了這些偏見(jiàn),更是放大了偏見(jiàn)。如果用來(lái)學(xué)習(xí)的圖片集都將婦女與烹飪關(guān)聯(lián)在一起,那么軟件通過(guò)學(xué)習(xí)則會(huì)強(qiáng)化這種聯(lián)系。人工智能研究所的研究員馬克·雅斯卡表示,這種現(xiàn)象也會(huì)放大數(shù)據(jù)中的其他偏見(jiàn),例如種族偏見(jiàn)。雅斯卡曾經(jīng)在華盛頓大學(xué)與歐多尼茲和其他人共事過(guò),他表示,“這不但會(huì)加重現(xiàn)有的社會(huì)偏見(jiàn),甚至?xí)屍?jiàn)惡化下去。”
大量復(fù)雜的機(jī)器學(xué)習(xí)程序不斷出現(xiàn),這種偏見(jiàn)也日益凸顯起來(lái)。在研究人員的測(cè)試中,身處廚房的人更可能被貼上“女性”標(biāo)簽,而不能反映出實(shí)際的學(xué)習(xí)結(jié)果。在研究人員的一篇論文中,一位身處爐子旁的男性則被判定為“女性”。如果這些判定方法進(jìn)入到科技公司中,很可能會(huì)影響到照片存儲(chǔ)服務(wù)和家庭助手,比如亞馬遜的攝像頭或是使用社交媒體照片來(lái)辨別消費(fèi)者偏好的工具。2015年,谷歌偶然展示了不當(dāng)圖像軟件的危險(xiǎn)性,當(dāng)時(shí),它的照片服務(wù)竟將黑人判定為大猩猩。
人工智能系統(tǒng)正承擔(dān)起越加復(fù)雜的任務(wù),風(fēng)險(xiǎn)也越發(fā)地不可估量。雅斯卡描述了這樣一個(gè)場(chǎng)景,當(dāng)機(jī)器人無(wú)法確定某人在廚房里做什么時(shí),它會(huì)遞給男性一杯啤酒,而幫助女性洗盤子。他表示:“如果一個(gè)系統(tǒng)的行為能通過(guò)性別明確劃分,這個(gè)系統(tǒng)就無(wú)法有效地發(fā)揮其效用。”
大約五年前,在機(jī)器學(xué)習(xí)實(shí)現(xiàn)了突破之后,科技公司開(kāi)始嚴(yán)重依賴從成堆數(shù)據(jù)中學(xué)習(xí)的軟件。最近,研究人員開(kāi)始向世人揭露機(jī)器學(xué)習(xí)的冷酷無(wú)情。去年夏天,來(lái)自波士頓大學(xué)和微軟的研究人員表示,根據(jù)谷歌新聞進(jìn)行學(xué)習(xí)的軟件再現(xiàn)了人類的性別偏見(jiàn)。當(dāng)對(duì)軟件進(jìn)行提問(wèn),“男性是程序員那么女性是?”它的回答是“家庭主婦”。新的研究表明,性別偏見(jiàn)根植于兩組圖片集中,而這原本是用來(lái)幫助軟件更好地理解圖像內(nèi)容。研究人員觀察了華盛頓大學(xué)的 ImSitu 和微軟的 COCO,每個(gè)圖片集都包含了 10 萬(wàn)多個(gè)來(lái)自網(wǎng)絡(luò)的復(fù)雜場(chǎng)景,并配有說(shuō)明。
兩個(gè)數(shù)據(jù)集所包含的男性圖像都要多于女性的,而不同性別對(duì)應(yīng)的事物、活動(dòng)則反映了研究人員所說(shuō)的顯著的性別偏見(jiàn)。在 COCO 中,勺子和叉子等廚房物品都與女性高度相關(guān),而類似滑雪板和網(wǎng)球拍等戶外運(yùn)動(dòng)設(shè)備則更多地與男性相關(guān)。當(dāng)圖像識(shí)別軟件通過(guò)這些數(shù)據(jù)集進(jìn)行訓(xùn)練時(shí),這種偏差就會(huì)放大。COCO 數(shù)據(jù)集訓(xùn)練出來(lái)的系統(tǒng)可能會(huì)把鼠標(biāo)、鍵盤和男性更為緊密地聯(lián)系在一起。研究人員設(shè)計(jì)了一種方法來(lái)抵消這種偏見(jiàn)放大現(xiàn)象,即有效使軟件反映其學(xué)習(xí)數(shù)據(jù)。但它首先要求研究人員找出偏見(jiàn)所在,并明確指出需要修改的內(nèi)容。修正后的軟件仍然會(huì)反映原始數(shù)據(jù)中的性別偏見(jiàn)。
微軟研究部主任埃里克·霍維茨說(shuō),他希望其他人采用這種方式,因?yàn)樗麄兪峭ㄟ^(guò)機(jī)器學(xué)習(xí)來(lái)設(shè)計(jì)軟件的。公司內(nèi)部有一個(gè)道德委員會(huì),該委員會(huì)致力于保持人工智能在公司產(chǎn)品線中的協(xié)調(diào)性?;艟S茨表示: “我和微軟作為一個(gè)整體,非常希望能夠找到同時(shí)解決在數(shù)據(jù)集和系統(tǒng)中產(chǎn)生的偏見(jiàn)和差距。”借用 COCO 和其他數(shù)據(jù)集的研究人員和工程師們,應(yīng)該從自己的工作和其他方面尋找偏見(jiàn)產(chǎn)生的跡象。不要從面向兒童的計(jì)算機(jī)、書(shū)籍和其他教育材料中尋找,因?yàn)檫@部分內(nèi)容往往都被調(diào)整過(guò),所呈現(xiàn)的是一個(gè)男女均等的理想化世界?;艟S茨認(rèn)為,在某些情況下,可以用類似的方法來(lái)訓(xùn)練軟件。
其他在機(jī)器學(xué)習(xí)中產(chǎn)生的偏見(jiàn)并不顯著。普林斯頓大學(xué)的研究員艾琳·卡利斯坎表示,如果男性建筑工人更多,圖像識(shí)別程序也應(yīng)該學(xué)習(xí)到一點(diǎn)。之后,可以采取相應(yīng)方法來(lái)衡量和調(diào)整偏見(jiàn)。她說(shuō):“為了避免偏見(jiàn),我們正冒著失去基本信息的風(fēng)險(xiǎn),數(shù)據(jù)集需要反映出世界上真實(shí)的統(tǒng)計(jì)數(shù)據(jù)。”在這個(gè)領(lǐng)域有一項(xiàng)共識(shí),那就是使用機(jī)器學(xué)習(xí)來(lái)解決問(wèn)題比許多人想象的要復(fù)雜得多。猶他州大學(xué)教授蘇雷什·文卡塔薩布拉曼尼亞說(shuō):“有人認(rèn)為算法可以解決一切問(wèn)題,而糾正偏見(jiàn)同時(shí)也可以糾正這種錯(cuò)覺(jué)。”