人工智能行業(yè)面臨多樣性危機(jī):女性和有色人種被嚴(yán)重低估
據(jù)theverge報道,人工智能研究所(AI Now Institute)的研究人員在今天發(fā)布的一份報告中表示,人工智能行業(yè)正面臨“多樣性危機(jī)”,這對該領(lǐng)域的發(fā)展方向提出了關(guān)鍵問題。
報告發(fā)現(xiàn),女性和有色人種被嚴(yán)重低估。報告指出,研究發(fā)現(xiàn),約80%的人工智能教授是男性,而Facebook和谷歌的人工智能研究人員中,只有15%和10%是女性。有色人種也被邊緣化,只占大型科技公司員工的一小部分。
其結(jié)果是,勞動力往往由白人和男性視角驅(qū)動,構(gòu)建的工具往往會影響其他群體。人工智能研究所副所長梅雷迪思•惠特克(Meredith Whittaker)表示:“受這些系統(tǒng)影響的并不是人的多樣性。”
更糟糕的是,通過修復(fù)潛在求職者的“渠道”來改善這一問題的計劃基本上失敗了。
研究人員寫道:“盡管有幾十年的‘渠道研究’評估了從學(xué)校到行業(yè)的不同求職者的流動情況,但人工智能行業(yè)在多樣性方面沒有取得實質(zhì)性進(jìn)展。”
研究人員提出了一些改進(jìn)這個問題的建議。他們表示,公司可以通過發(fā)布更多的薪酬數(shù)據(jù)(按種族和性別分類),以及發(fā)布性騷擾和歧視透明度報告,來提高透明度。
多樣性雖然是科技行業(yè)的一個障礙,但在人工智能領(lǐng)域卻存在著特定的危險。在人工智能領(lǐng)域,面部識別等可能存在偏見的技術(shù),可能會不成比例地影響歷史上被邊緣化的群體。研究人員寫道,像2017年推出的掃描人臉以確定性別的程序,類似這樣的工具,反映了過去對于性別歧視的不公平。
但更重要的是,人工智能工具制造商必須愿意不去建造風(fēng)險最高的項目。“我們需要知道這些系統(tǒng)是安全的,也是公平的,”AI Now研究所副所長凱特•克勞福德(Kate Crawford)表示。
科技行業(yè)的員工在一些重大人工智能問題上表明了自己的立場,敦促他們的公司放棄或?qū)彶榭赡軅θ鮿萑后w的敏感工具的使用。亞馬遜員工就該公司的面部識別產(chǎn)品向高管提出質(zhì)疑。最近,谷歌的員工對一個包括美國傳統(tǒng)基金會掌舵人在內(nèi)的人工智能審查委員會發(fā)起了反擊,指出該組織曾游說反對LGBTQ的權(quán)利問題。而公司很快就解散了該董事會。
“人工智能的多樣性危機(jī)是有案可查且影響廣泛的。”研究人員總結(jié)道,“在整個行業(yè)和學(xué)術(shù)界的不平等工作場所,在招聘和晉升方面的不平等,在反映和放大偏見成見的人工智能技術(shù),以及在自動化系統(tǒng)中生物決定論的重現(xiàn),都可以看到這一點。”