我們需要的是怎樣的AI系統(tǒng)
每個父母都擔(dān)心他們孩子會受到潛在影響。 比如,他們的老師是誰? 他們正在看什么電影? 他們在玩什么電子游戲? 他們在和合適的人群閑逛嗎? 父母們會仔細檢查這些事情帶來潛在影響,無論是好是壞,因為他們知道這些會影響孩子成長和判斷。
正如我們關(guān)注誰在教我們的孩子一樣,我們也需要注意誰在教我們的算法。 像人類一樣,人工智能系統(tǒng)從其所處的環(huán)境中學(xué)習(xí),并根據(jù)其發(fā)展的偏見做出決策。 和我們的孩子一樣,我們應(yīng)該期望我們的模型能夠隨著他們的成長來解釋他們的決定。
正如Cathy O’Neil在《數(shù)學(xué)毀滅性武器》中所解釋的那樣,算法通常決定著我們上的大學(xué),是否被錄用以尋找工作,是否有資格獲得貸款以購買房屋,甚至誰入獄以及持續(xù)多長時間。 與人為決定不同,這些數(shù)學(xué)模型很少受到質(zhì)疑。 它們只是出現(xiàn)在某些人的計算機屏幕上,命運就已確定。
在某些情況下,算法的錯誤是顯而易見的,例如當(dāng)?shù)拉偹箞蟮拦雀枰?0億美元收購蘋果公司,而機器人為此而屈服時,或者微軟的Tay聊天機器人在Twitter上發(fā)瘋時;但通常不是這樣,有些錯誤并非這么明顯。更隱蔽和普遍的是那些細微的小錯誤,這些細微的小錯誤雖然未被注意到,但卻對人們的生活產(chǎn)生了非常實際的影響。
一旦遇到錯誤的算法,您的生活就會立即變得更加困難。 無法入讀一所好學(xué)?;蛘也坏揭环莨ぷ鳎氖杖雽p少,生活在更差的社區(qū)。 這些事實被引入新算法中,您的情況會進一步惡化。 你的每一次決定,每一個行動,都會被記錄下來,然后被進行測量和評估。
以莎拉·懷索克(Sarah Wysocki)為例,她是一名五年級老師,盡管受到父母,學(xué)生和管理人員的稱贊,但還是被哥倫比亞特區(qū)學(xué)區(qū)開除,原因是一種算法認為她的成績不及標準。 為什么? 目前尚不清楚,因為系統(tǒng)太復(fù)雜了,開除她的人也無法理解。
毫無疑問,隨著我們越來越多地將決策外包給算法,這個問題有可能變得更加嚴重。 當(dāng)務(wù)之急是,我們必須開始認真對待人工智能偏差問題,并采取措施使我們的系統(tǒng)更加透明,可解釋和可審計來減輕其影響。
人工智能系統(tǒng)中的偏差有兩個主要來源:訓(xùn)練模型所依據(jù)的數(shù)據(jù)集和模型本身的設(shè)計。 訓(xùn)練算法的數(shù)據(jù)集中的偏差可能很細微,例如,當(dāng)使用智能手機應(yīng)用程序監(jiān)視坑洼并提醒當(dāng)局與維護人員聯(lián)系時。 這可能是有效的方法,但在偏遠地區(qū)一定是行不通的,這是因為那里擁有智能手機的人比較少。
在其他情況下,未收集的數(shù)據(jù)可能會影響結(jié)果。 分析人士懷疑,當(dāng)Google對2013年流感趨勢進行預(yù)測的時候,預(yù)估病例數(shù)幾乎是實際數(shù)量的兩倍時,就會發(fā)生這種情況。 似乎已經(jīng)發(fā)生的事情是,媒體報道的增加導(dǎo)致沒有生病的人進行更多的搜索。
當(dāng)人類的偏見延續(xù)到AI系統(tǒng)中時,就會產(chǎn)生數(shù)據(jù)偏見的另一個來源。 例如,司法系統(tǒng)中的偏見會影響誰因犯罪被起訴和判刑。 如果將這些數(shù)據(jù)用于預(yù)測誰可能犯罪,那么這些偏見將繼續(xù)存在。 在其他情況下,人類被用來標記數(shù)據(jù),并可能將輸入偏差引導(dǎo)到系統(tǒng)中。
這種偏見普遍存在,難以消除。 實際上,亞馬遜被迫放棄了由人工智能驅(qū)動的招聘工具,因為他們無法消除結(jié)果中的性別偏見。 他們不公平地偏愛男性,因為他們使用的培訓(xùn)數(shù)據(jù)告訴系統(tǒng),該公司以前雇用的大多數(shù)被視為成功的員工都是男性。 即使他們消除了對性別的任何具體提及,系統(tǒng)仍將某些單詞出現(xiàn)在男性簡歷中而不是女性簡歷中,這是性別的代理。
解決方案
由于存在多種多樣的偏見,我們認為完全消除甚至根本消除偏見是不現(xiàn)實的。 但是,我們可以做的是使我們的AI系統(tǒng)更具可解釋性,可審計性和透明度。 我們建議領(lǐng)導(dǎo)者可以采取三個實際步驟來減輕偏見的影響。
首先,必須對AI系統(tǒng)進行嚴格的人工審查。 例如,奧巴馬政府在白宮的一份報告中引用的一項研究發(fā)現(xiàn),雖然機器在讀取放射線圖像時有7.5%的錯誤率,而人類有3.5%的錯誤率,但是當(dāng)人們將工作與機器結(jié)合起來時,錯誤率下降至0.5%。
其次,就像法律要求銀行“了解客戶”一樣,構(gòu)建系統(tǒng)的工程師也需要了解其算法。 例如,Experian數(shù)據(jù)實驗室負責(zé)人埃里克·哈勒(Eric Haller)告訴我們,與幾十年前不同,當(dāng)他們使用的模型相當(dāng)簡單時,在AI時代,他的數(shù)據(jù)科學(xué)家需要更加謹慎。 他說:“過去,我們只需要保留準確的記錄,這樣,如果犯了一個錯誤,我們可以回去,找到問題并加以解決?!?“現(xiàn)在,當(dāng)我們有這么多模型都由人工智能提供支持時,這并不容易。 我們不僅可以下載開源代碼并運行它。 我們需要非常深入地了解我們算法中的每一行代碼,并能夠向外部利益相關(guān)者進行解釋?!?/p>
第三,人工智能系統(tǒng)以及用于訓(xùn)練它們的數(shù)據(jù)源必須透明且可用于審核。 歐洲的GDPR之類的立法框架已邁出了一些有希望的第一步,但顯然還需要做更多的工作。 我們認為人類在沒有任何監(jiān)督的情況下做出決定是不可接受的,因此沒有理由在機器做出決定時我們應(yīng)該接受它。
也許最重要的是,我們需要從自動化文化轉(zhuǎn)變?yōu)樵鰪娢幕?人工智能的效果最好不是用作替代人類并降低成本的魔盒,而是用作創(chuàng)造新價值的助推器。 通過使AI系統(tǒng)更具可解釋性,可審計性和透明度,我們不僅可以使我們的系統(tǒng)更加公平,而且可以使它們更有效,更有用。