自駕車(chē)系統(tǒng)也有“種族歧視”? 背后的原因是這樣的
《Business Insider》報(bào)導(dǎo),美國(guó)喬治亞理工學(xué)院最新研究顯示,自駕車(chē)系統(tǒng)在識(shí)別路人時(shí),可能較容易識(shí)別膚色白的人,研究人員認(rèn)為,這樣的差異是因?yàn)樵谟?xùn)練這些系統(tǒng)時(shí),使用的黑皮膚人種的照片不夠多。
針對(duì)這次的研究,研究人員使用了8種圖像偵測(cè)系統(tǒng)(image-detection system)來(lái)分析行人,照片里的行人被依照菲茲派崔克膚色(Fitzpatrick skin type scale)分為兩類(lèi),一類(lèi)膚色較白,一類(lèi)膚色較黑。
接著,研究人員一一測(cè)試這些系統(tǒng)識(shí)別行人的能力,再比較圖片中的膚色較白的行人與膚色較黑的行人被偵測(cè)出來(lái)的比例,平均看來(lái),這些系統(tǒng)識(shí)別膚色較黑的行人的準(zhǔn)確度,比識(shí)別白人來(lái)的低5%,即使控制了其他可能影響到調(diào)查結(jié)果的因素,結(jié)果仍然沒(méi)有改變。
然而,由于這項(xiàng)研究使用的系統(tǒng)并非實(shí)際上自駕車(chē)所使用的系統(tǒng),也沒(méi)有使用自駕車(chē)制造商訓(xùn)練系統(tǒng)所用的數(shù)據(jù)集,外媒《Vox》認(rèn)為不應(yīng)該輕信這次的研究結(jié)果。因?yàn)楣静粫?huì)公開(kāi)發(fā)表自己的訓(xùn)練數(shù)據(jù),所以研究人員使用的系統(tǒng)是學(xué)術(shù)模型,并且使用可供公眾取得的數(shù)據(jù)集來(lái)訓(xùn)練系統(tǒng)。
但這并不代表這個(gè)研究沒(méi)有價(jià)值,其中一位參與研究的學(xué)者Kate Crawford在推特上表示,在理想情況下,學(xué)者應(yīng)該要使用自駕車(chē)廠(chǎng)商所用的模型以及訓(xùn)練步驟來(lái)進(jìn)行測(cè)驗(yàn),但這件事本身不可能實(shí)行。無(wú)論如何,這次的研究還是為實(shí)際存在的風(fēng)險(xiǎn)提供了深刻見(jiàn)解。
根據(jù)《Vox》報(bào)導(dǎo),研究指出了人類(lèi)的偏見(jiàn)可能也會(huì)導(dǎo)致自動(dòng)決策系統(tǒng)產(chǎn)生偏頗,造成算法偏見(jiàn)(algorithmic bias)。由于演算系統(tǒng)是通過(guò)接收到的范例來(lái)學(xué)習(xí),如果在學(xué)習(xí)階段沒(méi)有得到足夠的范例,真正運(yùn)用時(shí)系統(tǒng)就無(wú)法識(shí)別他們。
《Vox》認(rèn)為,對(duì)自駕車(chē)公司來(lái)說(shuō),最有利的方式就是盡可能的解決種族歧視問(wèn)題,以免人們被迫承受一切傷害。