“俄羅斯侵害了Aleksandrova的人權(quán)”
隨著屏幕中跳出這幾個字,研究人員知道這套系統(tǒng)離成功又更近了一步。但這不是一次普通的審判,而是由人工智能裁定的。
事情起源于1970年,一位受雇于俄羅斯的女工Aleksandrova因為工傷失去了右手。但不幸的是她一路所爭取的殘疾補貼一直沒有到位,十幾年來一直受到地方法院的打擊。不得以,她將此案提交給了歐洲人權(quán)法院,該法院于2007年裁定她的公平審判權(quán)受損,判決俄羅斯賠償。
在2016年,法院的研究員用人工智能再次對此案作出了相同的判決。這套系統(tǒng)可以一字不落的閱讀法律文件,并思考該如何判決。它還閱讀了583個全部來自歐洲人權(quán)法案的其它案件,為“自己”積累經(jīng)驗,并由此得出了和人類法官相同的判決。
AI是如何做到的?
來自倫敦大學(xué)學(xué)院的計算機科學(xué)家團隊開發(fā)了一套系統(tǒng),可以準(zhǔn)確預(yù)測現(xiàn)實生活中人權(quán)案件的結(jié)果。他們基于一系列關(guān)于折磨,隱私和受到有辱人格對待的法庭判決數(shù)據(jù),來訓(xùn)練機器學(xué)習(xí)算法,將每個法律文檔視為要分析的數(shù)據(jù)庫。
“比如說你想做對電影評論的語義分析,”該研究的其中一個作者說。 “對于人類來說,我們基本上做的就是閱讀它,然后做出判斷。如果你想讓它更抽象點,你可以計算文本中有多少正面和負(fù)面的單詞然后再做決定。如果我看到正面的詞匯比負(fù)面的要多,那么這篇評論我可能認(rèn)為是正面的。“
“我們用同樣的方法來分析法律文本,”他補充道。 “通過研究過去的案例,我們了解到案件中特定詞語的重要性。”
在受訓(xùn)完畢后,79%的情況下它能做出與人類法官相同的判決。 2017年,另外一個單獨的分析中,用美國最高法院過去199年的 28,009個案例訓(xùn)練算法,結(jié)果以超過70%的準(zhǔn)確率成功預(yù)測了判決結(jié)果。
這項研究的作者沒有聲稱他們的模型應(yīng)該取代人類法官。但他們的工作表明,如果有足夠的數(shù)據(jù),機器可以預(yù)測法律的判決。
對AI審判公平性的顧慮
在美國,一家位于密歇根的私人公司開發(fā)了預(yù)測被告犯罪風(fēng)險的系統(tǒng),已經(jīng)被頗有爭議地用作法律判決的工具。系統(tǒng)能否做出“公平的”判斷取決于其訓(xùn)練數(shù)據(jù)的公平程度,而人們擔(dān)憂這些系統(tǒng)會采用甚至放大他們所學(xué)習(xí)數(shù)據(jù)本身的偏見。
英國紐卡斯?fàn)柗▽W(xué)院教授Lilian Edwards說:“人們一直在努力開發(fā)“公平”的算法,例如,可能會在算法中更少關(guān)注種族因素,但他們?nèi)匀缓茈y消除偏見。基于種族和貧困的歧視可能會被其它更隱蔽的數(shù)據(jù)重建?!?/p>
所以AI真的能給我們帶來正義嗎?即使A.I.有能力對案件做出“正確的”判決,我們應(yīng)該這樣做嗎?
盡管疑慮重重,但在政府“緊縮”預(yù)算和法律體系過重的背景下,法律界AI的推出已經(jīng)不可避免。在2018年底,歐洲司法效率委員會發(fā)布了法律系統(tǒng)內(nèi)A.I.的使用章程,要求采用不歧視,透明化和尊重基本權(quán)利的核心原則 。目前我們正處于這些準(zhǔn)則的早期階段,希望以后能成為共識。
這在某種程度上是對AI的肯定?!皩τ谀切┲貜?fù)性場景下小而簡單的案件,比起上法庭,涉案者更愿意通過AI提起訴訟,法官也能從重復(fù)的事務(wù)性勞動中解脫出來?!庇H怂狗ㄔ旱拇舐蓭烸C Charles Ciumei說。
假設(shè)你在工作事故中失去了右手,就像Aleksandrova一樣。你不必訴諸一系列區(qū)法院和地方法院,A.I.就可以處理你的申訴,查看證據(jù),并快速給出答案。
在某種程度上,這種情況已經(jīng)存在。由斯坦福大學(xué)學(xué)生Joshua Browder創(chuàng)建的DoNotPay應(yīng)用程序允許其用戶就停車罰款,信用卡費用提出異議,并在小額索賠法庭提起最高可達25,000美元的訴訟,所有這些都在應(yīng)用程序內(nèi),并且都無需支付律師費用。該應(yīng)用程序的廣告詞:“抗議公司及官僚,一鍵起訴任何人。”
法官的意義:仍然是那個最終做決定的人
快速而廉價地訴諸司法很難讓人去反對,但如果尋求法律行動變得如此容易,它是否會培養(yǎng)無休止性的微訴訟文化?
更本質(zhì)的是,它會改變正義本身嗎?看看即時通信和算法預(yù)測影響公共和政治話語的方式。即使A.I.有能力對案件做出“正確的”判決,我們應(yīng)該讓AI這樣做嗎?
或許這個擔(dān)憂有點為時過早。
上文中有提到,在“重復(fù)性場景下小而簡單的案件”中AI確實能夠提高法官的工作效率。
在封閉性的場景中,AI表現(xiàn)得非常出色,正如我們所熟悉的阿爾法狗打敗了所有的人類選手,但如果圍棋盤從19*19改成21*21,它將無所適從。而法律是一個開放性系統(tǒng),法官的工作不僅僅是解讀法律教條這么簡單,一個案件的最終判決是法理情的結(jié)合。
北大法律實驗室創(chuàng)始人也曾經(jīng)在一次采訪中表示,人工智能取代的將會是重復(fù)性工作,而不是法律人的工作,因為只有人會做價值判斷。所以AI的角色其實很清楚,就是智能輔助,而幫助我們守護正義的還是法官。