機器學習是當今技術最重要的基本趨勢之一,也是未來十年科技將在更廣闊的世界中改變事物的主要方式之一。作為其中的一部分,機器學習的各個方面引起關注 - 例如,它對就業(yè)的潛在影響,以及它用于我們可能認為不道德的目的,例如它可能給予壓迫性政府的新能力。另一個,也就是這篇文章的主題,是人工智能偏差的問題。
什么是'AI Bias偏差'?
“原始數據既是矛盾又是壞主意; 相反,數據應該小心烹飪?!敖芨ダ秕U克
直到2013年左右,如果你想制作一個可以識別照片中的貓的軟件系統(tǒng),你就會編寫邏輯步驟。你會做一些尋找圖像邊緣的東西,一個眼睛探測器,一個用于皮毛的紋理分析器,并嘗試計算腿部等等,然后將它們全部固定在一起......它永遠不會真的很棒。從概念上講,這就像試圖制造機械馬一樣 - 理論上這是可能的,但在實踐中,復雜性太大,我們無法描述。在沒有工作模型的情況下,您最終會得到數百或數千條手寫規(guī)則。
通過機器學習,我們不使用手寫規(guī)則來識別X或Y。
相反,我們采用X的一千個例子和Y的一千個例子,我們讓計算機根據這些的統(tǒng)計分析建立一個模型。例子。然后我們可以給該模型一個新的數據點,并且它具有給定的準確度,是否適合示例集X或示例集Y.機器學習使用數據生成模型,而不是人類編寫模型。這產生了驚人的好結果,特別是對于識別或模式發(fā)現問題,這就是為什么整個科技行業(yè)正在圍繞機器學習重新制作的原因。
然而,有一個問題。在現實世界中,你的千(或十萬或百萬)X和Y的例子也包含A,B,J,L,O,R和P.這些可能不均勻分布,并且它們可能足夠突出,你的AI系統(tǒng)對L和R的關注度卻超過了X。
這在實踐中意味著什么?我最喜歡的例子是圖像識別系統(tǒng)傾向于觀看草山的照片并指出“羊”。大多數作為“綿羊”的例子的照片都是在草山上拍攝的,因為那是綿羊往往生活的地方,而且圖像中的草比白色蓬松的小東西更加突出。
這里要理解的一個重要事項是系統(tǒng)沒有語義去理解它正在看的是什么。我們查看像素網格并將其轉換為綿羊,皮膚或標尺,系統(tǒng)只看到一串數字。它沒有看到3D空間,物體,紋理或綿羊。它只是看到數據中的模式。
同時,嘗試診斷此類問題的挑戰(zhàn)在于您的機器學習系統(tǒng)生成的模型(神經網絡)包含數千或數十萬個節(jié)點。沒有簡單的方法來查看模型內部,看看它是如何做出決定的 - 如果可以的話,那么這個過程很簡單,你首先就不需要ML了,你可以自己編寫規(guī)則。人們擔心ML是一個“黑匣子”。(正如我稍后解釋的那樣,這個問題經常被夸大了。)
那么什么是“AI偏差”或“機器學習偏差”問題?用于查找數據模式的系統(tǒng)可能會找到錯誤的模式,您可能也沒有意識到。
AI偏差場景用例
這個問題可以表現出來的最明顯和最直接的關注點是人類的多樣性。據報道,亞馬遜最近曾嘗試建立一個機器學習系統(tǒng)來篩選簡歷以進行招聘。由于亞馬遜目前的員工群體偏向于男性,因此“成功招聘”的例子在機械上也會使男性產生偏差,因此,該系統(tǒng)選擇了簡歷。亞馬遜發(fā)現了這一點,該系統(tǒng)從未投入生產。
這個例子中最重要的部分是據報道,即使在簡歷上沒有明確標明性別,該系統(tǒng)也表現出這種傾斜。該系統(tǒng)在其他事物中看到了“成功員工”樣本集中的模式 - 例如,女性可能會使用不同的詞語來描述成就,或者在學校中進行過不同的體育運動。當然,該系統(tǒng)不知道什么是冰球,也不知道人們是什么,也不知道“成功”是什么 - 它只是對文本進行統(tǒng)計分析。但是它所看到的模式并不一定是人類會注意到的東西。
它變得更糟。一個非常善于發(fā)現蒼白皮膚上的皮膚癌的機器學習系統(tǒng)可能更難以在深色皮膚上發(fā)現皮膚癌,反之亦然,可能不是因為樣本中的偏差,而是因為您可能需要以不同的方式構建模型首先要挑選出不同的特征。
即使在像圖像識別這樣的狹窄應用中,機器學習系統(tǒng)也是不可互換的。您必須調整系統(tǒng)的結構,有時只是通過反復試驗,以便善于發(fā)現您感興趣的數據中的特定功能,直到達到所需的準確度。但是你可能沒有意識到系統(tǒng)對于一組而言準確率為98%,但對于另一組而言只有91%準確(即使該準確度仍然超過人類分析)。
我們將使用ML來做很多事情,樣本偏差將成為所有這些問題的一部分考慮因素。同樣,即使您與人合作,數據中的偏差也可能與人無關。
AI偏差管理
我們該怎么辦?您可以將現場思維分為三個方面:
在訓練數據的收集和管理中的方法嚴謹性
用于分析和診斷模型行為的技術工具。
在產品中部署ML的培訓,教育和謹慎。
樣板偏差關鍵是來自于我們自己先驗地可能對不同的人群數據有偏見。
在這種情況下,我經常將機器學習與數據庫進行比較,特別是關系數據庫 - 一種新的基礎技術,它改變了計算機科學的可能性,改變了更廣闊的世界,成為了所有東西的一部分,我們現在使用一直沒有注意到。
但數據庫也存在問題,而且問題具有相同的特征:系統(tǒng)可能建立在錯誤的假設或糟糕的數據之上,一直使用它的人很難意識到這點更不會去質疑。
比如稅務系統(tǒng)中如果登記你的名字寫錯了,更容易的是讓改變你的名字,而不是讓他們修改數據庫中的拼寫字母,這被認為是SQL固有的技術問題,Oracle的執(zhí)行失敗,或大型官僚機構的制度性失???如何輕松地確定部署系統(tǒng)的確切過程,無法修復拼寫錯誤,或者知道在人們開始抱怨之前已經完成了這個操作?
所有這一切都是說,ML偏見會以與過去問題大致相同的方式引起問題,并且可以解決和發(fā)現,或者不會,與過去大致相同的程度。因此,人工智能偏見導致最容易想象的傷害的情景可能不是來自主要機構的主要研究人員。相反,它是第三層技術承包商或軟件供應商,它將開源組件,圖書館和工具中的某些內容與其真正理解的東西聯系在一起,然后將其出售給在貼紙上看到“AI”的不熟練買家。不要問正確的問題,把它交給最低工資的員工,并告訴他們做'AI'所說的任何事情。這是數據庫發(fā)生的事情。這不是特別是AI問題,甚至是“軟件”問題。?
結論
“機器學習可以做任何你可以訓練狗去做的事情 - 但你從來都不能完全確定你訓練狗去做什么?!?/p>
我經常認為“人工智能”這個詞在這樣的對話中是無用的。它創(chuàng)造了我們實際創(chuàng)造的大部分錯誤印象,這些只是機器,將它們與洗衣機進行比較會更有用。在洗衣服時,洗衣機比人類要好得多,但是如果你把洗碗機放在洗衣機而不是衣服上并按下開始,它就會洗掉它們。他們甚至會變得干凈。但這不是你想要的結果,也不會是因為系統(tǒng)偏向于菜肴。洗衣機不知道什么衣服或餐具 - 它只是一個自動化,它在概念上與以前的任何自動化浪潮都沒有什么不同。
也就是說,就像汽車,飛機或數據庫一樣,這些系統(tǒng)既強大又極其有限,完全取決于人們如何使用這些系統(tǒng),以及用戶的好壞,以及受過良好教育或無知的人這些系統(tǒng)是如何工作的。
因此,說'人工智能是數學,所以它不會有偏差'是完全錯誤的。ML在數據中找到模式 - 哪些模式取決于數據,數據取決于我們,我們用它做什么取決于我們。機器學習在做某些事情方面要比人們好得多,就像一只狗在尋找毒品方面要比人們好得多,但你不會因狗的證據而定罪。而且狗比任何機器學習都聰明得多。