近日,有人工智能領域的知名專家說,預測性的監(jiān)管工具不僅“毫無用處”,而且容易大大夸大暴力犯罪的可能性。在本月早些時候發(fā)表的一封信中,來自麻省理工學院、哈佛大學、普林斯頓大學、紐約大學、加州大學伯克利分校和哥倫比亞大學的專家們就這一問題發(fā)表了看法,他們對這項技術的懷疑態(tài)度達到了前所未有的程度。
人工智能專家切爾西巴拉巴斯(Chelsea Barabas)、卡蒂克迪納卡爾(Karthik Dinakar)和科林多伊爾(Colin Doyle)在《紐約時報》(New York Times)的一篇專欄文章中寫道:“在預測暴力時,風險評估提供的是更神奇的思維,而不是有用的預測?!?/p>
預測性警務工具,或風險評估工具,是用來預測某人未來犯罪可能性的算法。根據美國國家司法研究所(NaTIonal InsTItute of JusTIce)的數(shù)據,預測性警務是:“(利用)信息、地理空間技術和基于證據的干預模式的力量,以減少犯罪和改善公共安全。”
隨著人工智能的迅速發(fā)展,這些工具已經開始進入法官和警察部門的日常程序,法官利用它們來決定該如何判決,警察部門則利用它們來分配資源等等。它也被用來評估面臨審判的人再次犯罪的可能性,以及他們是否應該被拘留。其中,法官最常用的工具之一被稱為公共安全評估(PSA),它和其他許多工具一樣,根據犯罪歷史和個人特征來計算。
根據計算結果,該工具可能會將一個人標記為“新的暴力犯罪活動”的候選者。盡管該技術被定位為先發(fā)制人打擊犯罪的一種方式,但專家表示,它的能力被大大夸大了。研究人員寫道,在預測未來的暴力事件時,算法風險評估被吹捧為比法官更客觀、更準確。
“從政治角度看,這些工具已經成為保釋改革的寵兒。但他們的成功建立在這樣的希望之上:風險評估可以成為糾正法官錯誤直覺的寶貴途徑?!睂<覀兎磳@種預測犯罪算法的理由之一是對其準確性的疑慮。專家表示,這些工具往往高估了被指控者的暴力風險,而事實上,審判期間犯罪的可能性很小。
據報道,華盛頓特區(qū)94%的犯罪嫌疑人被釋放,其中只有2%的人隨后因暴力犯罪被捕。然而研究人員指出,在各州,有30%等待審判的人被拘留的情況并不罕見,這種比例的懸殊顯然揭示了一個“過度監(jiān)禁”的問題。研究人員寫道,(這些工具)給法官提供的建議讓未來的暴力事件看起來比實際情況更可預測、更確定。但在這個過程中,使用這種AI風險評估工具可能會持續(xù)性地導致大規(guī)模監(jiān)禁情況的出現(xiàn),并讓人們產生誤解和恐懼。
專家們說:“如果這項技術真正準確,它應該能預測出幾乎所有人都處于零風險狀態(tài),因為統(tǒng)計上的可能性很低。相反,PSA犧牲了準確性,只是為了在暴力可能性低、不確定或無法計算的人群中區(qū)分出有問題的人。”而以此前提到的意在辨別恐怖分子的TIA系統(tǒng)為例,假設這個預言系統(tǒng)的準確性能達到99%,那么它理論上就能預言出恐怖分子群體中99%的未來罪犯,同時也會在無辜群眾中錯誤將1%的人判定為未來恐怖分子。
假設在全美國3億人口中有1000人是真正的“未來恐怖分子”,而剩下的299999000人都是清白的,那么理論上會有2999990人被錯誤地列入恐怖分子的行列。也就是說,這個系統(tǒng)將會逮捕將近300萬無辜的人——幾乎是那些真正罪犯人數(shù)的3000倍。
人工智能究竟如何預測犯罪?其實,其判斷依據跟人類警察也大致相同。富有多年工作經驗的警察們往往能總結出自己的一套辨別犯罪分子的依據,而破案時警察們也經常需要一些基本經驗判斷,如什么區(qū)域、時間容易犯罪率高發(fā),什么人物更有可能犯罪等。
這些歸納性的判斷有其意義,但對于某個特定個體而言,用類似分析去判定其“有罪”顯然對其不公平。此外,算法的設計者也可能在算法中無意加入了自己的偏見,而機器學習算法的黑盒子屬性讓其設計者也不能肯定其判定邏輯是什么。
1980年代,美國軍方使用機器學習算法訓練機器分辨美蘇兩國的坦克,但后來卻發(fā)現(xiàn)計算機并未真正認出兩國坦克的設計不同,而是把像素更高的圖片當作“美國坦克”,因為訓練使用的資料中俄羅斯坦克的照片更模糊?!靶录夹g有為善和作惡的潛在力量。如果你的假設沒有被仔細考證,那么機器學習技術只會帶來更多的不公平和加速現(xiàn)有的不平等?!逼樟炙诡D大學法學系教授 Alexander T. Todorov 表示。
為了更好地預防犯罪,在近日對人工智能學家的采訪中,研究人員建議減少對算法的依賴,將資源投入到更全面的措施中。