人工智能預(yù)測(cè)能力超級(jí)棒:神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法助力罪案預(yù)警
“還有 30 秒。”湯姆·克魯斯扮演的未來(lái)警察跳下直升機(jī)后,耳邊響起同事的最后一次提醒。
此刻,一位男子在臥室里拿起床頭的剪刀,面前是他出軌的妻子。在他來(lái)得及做任何事之前,一眾警察沖進(jìn)屋子,將他按住。
“看著我,看著我”湯姆·克魯斯用虹膜識(shí)別設(shè)備掃描了男子的眼睛,“就是你了,霍華德·馬克思。我要以‘即將謀殺罪’逮捕你,你本來(lái)要在 4 月 22 日,也就是今天 8 點(diǎn) 04 分謀殺你的妻子。”
“但我什么都沒(méi)做!”男子辯解道,但警方已經(jīng)銬上他的手腕。城市里的城市謀殺案數(shù)量依然保持為零。
這是斯皮爾伯格 2002 年的科幻電影《少數(shù)派報(bào)告》,片中的警察可以預(yù)測(cè)犯罪細(xì)節(jié),提前趕到現(xiàn)場(chǎng),制止犯罪。
今天還沒(méi)有人能精確預(yù)測(cè)未發(fā)生罪案的細(xì)節(jié)。但預(yù)測(cè)哪里會(huì)發(fā)生罪案、誰(shuí)更有可能犯罪是已經(jīng)被用在執(zhí)法、乃至定罪上。
人工智能已經(jīng)在決定數(shù)十個(gè)城市的警察去哪兒巡邏、找誰(shuí)“聊天”
意大利的 KeyCrime 是一家軟件預(yù)測(cè)公司。他們目前主要服務(wù)米蘭警方,針對(duì)商店的搶劫和偷竊做地區(qū)預(yù)測(cè),目前這套系統(tǒng)已經(jīng)用了 9 年了。
創(chuàng)始人 Mario Venturi 告訴《》,他們的邏輯是已經(jīng)有很多的經(jīng)驗(yàn)和數(shù)據(jù)支持:犯罪者有他們行動(dòng)的一套范式——如果他們?cè)谀骋坏貐^(qū)進(jìn)行了搶劫犯罪并且得手了,他們更傾向于在該地點(diǎn)附近的再次作案。
今年 3 月,米蘭的警察通過(guò) KeyCrime 的指引做到了“預(yù)防犯罪”——在一個(gè)超市門口,在兩個(gè)罪犯正準(zhǔn)備搶劫超市,警察抓住了他們。
KeyCrime 調(diào)用的是警方的犯罪嫌疑人的數(shù)據(jù),配合被搶劫的商店地點(diǎn)、攝像頭里拍攝的犯罪嫌疑人的動(dòng)作,攜帶的武器,來(lái)分析這個(gè)罪犯的危險(xiǎn)程度,更重要的是,分析他跟附近犯罪案件有沒(méi)有什么別的關(guān)系,如果有——他下一宗犯罪可能會(huì)在什么時(shí)間和區(qū)域。
最近幾年,有了大量的數(shù)據(jù)和神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法之后,KeyCrime 在不同罪案中建立聯(lián)系變得方便起來(lái)。
像 KeyCrime 這樣的犯罪預(yù)測(cè)軟件已經(jīng)有很多家警局在使用。
今年 5 月,芝加哥警局局長(zhǎng) Jonathan Lewin 開(kāi)了一個(gè)人工智能的溝通會(huì):警局在城市里安裝了可以檢測(cè)槍聲的聲音感應(yīng)器收集數(shù)據(jù),加上城市路邊的攝像頭數(shù)據(jù),通過(guò)機(jī)器學(xué)習(xí)算法做了一個(gè)“罪案預(yù)測(cè)系統(tǒng)”,能預(yù)測(cè)搶劫、槍擊案的罪案地點(diǎn),還能預(yù)測(cè)什么人可能會(huì)犯罪,讓警方可以提前找嫌疑人聊聊天。
現(xiàn)在芝加哥警員巡邏時(shí),會(huì)在手機(jī)和平板上用這么一個(gè)應(yīng)用:地圖上顯示著一個(gè)個(gè)紅色的小方塊,那里就是下一次犯罪可能發(fā)生的地方。
不同犯罪行為的熱點(diǎn)圖,來(lái)自 PredPol 公司的軟件
警方使用技術(shù)分析和預(yù)測(cè)犯罪地點(diǎn),已經(jīng)有很多年了,而原因也很好理解:效率。
著名犯罪學(xué)家 Lawrence W. Sherman 曾總結(jié)過(guò)“減少犯罪的八個(gè)原則”:
1. 更多的警員數(shù)量;
2. 更快的 911 反饋;
3. 從接報(bào)到出警響應(yīng)時(shí)間更短;
4. 更多隨機(jī)巡邏;
5. 更多對(duì)于犯罪熱點(diǎn)地區(qū)有目的巡邏;
6. 更多逮捕;
7. 更多和有犯罪前科的嫌疑人交流;
8. 更多和社區(qū)溝通;
這些原則當(dāng)中有不少都是跟怎么調(diào)派警力到某一位置相關(guān)?,F(xiàn)實(shí)當(dāng)中,地方警局的人手和工作時(shí)間都是有限的。而算法和機(jī)器學(xué)習(xí)在這當(dāng)中的作用,就是幫警局提升效率。如果一個(gè)警員每天只有 8 小時(shí)的巡邏時(shí)間,到處亂走看看有沒(méi)有撞見(jiàn)罪犯,并不是一個(gè)很高效的行為模式。
洛杉磯警局的警長(zhǎng) Charlie Beck 說(shuō)法也是類似,“我要不來(lái)跟更多的經(jīng)費(fèi),也要不來(lái)更多的人手。我只能把我有的資源用得更好,如果巡警能對(duì)這種技術(shù)改變看法,那么管理者也會(huì)這么做。” 洛杉磯表示,使用這套提高效率的模型,一年光一個(gè)分局就能省下 200 萬(wàn)美元。
背后有不少技術(shù)公司在幫忙。剛剛我們談了那么多洛杉磯和芝加哥警局使用的預(yù)測(cè)犯罪的軟件,背后就是加州圣克魯茲的警力軟件公司 PredPol。
芝加哥警局表示,用了 PredPol 的算法短短幾個(gè)月后,槍擊案件等發(fā)生幾率已經(jīng)下降了 13%,預(yù)計(jì)謀殺案件的數(shù)量將降低 49%。
芝加哥其實(shí)在 2009 年開(kāi)始就在犯罪分析系統(tǒng) PredPol,而被證實(shí)有效的 KeyCrime 也已經(jīng)在米蘭警局使用了 9 年。
只是最近幾年,在有了更多數(shù)據(jù)之后,警方開(kāi)發(fā)重心,從分析到預(yù)測(cè)“地點(diǎn)”,再?gòu)念A(yù)測(cè)地點(diǎn)升級(jí)到預(yù)測(cè)“嫌疑人”上。
去年很受爭(zhēng)議的就是芝加哥警局的“預(yù)測(cè)罪犯熱點(diǎn)名單”,他們會(huì)告訴警員,附近街區(qū)最有可能犯罪的前 20 名嫌疑犯名字和照片,具體到這樣的程度:“此人可能在 18 個(gè)月內(nèi)有 25% 的可能性參與暴力事件。”
根據(jù)芝加哥警局透露的信息,這個(gè)名單已經(jīng)有 400 人。上榜的人不一定有犯罪史:住在罪案高發(fā)地地區(qū),或者朋友、家人有人犯罪……都是這個(gè)名單背后算法考慮的因素。
警方還會(huì)提前給這些算法挑選出來(lái)的“未來(lái)罪犯”提前做心理建設(shè)。Jonathan Lewin 把這套提前干預(yù)犯罪的機(jī)制叫做“定制化提醒”,提前去找嫌疑人聊天:
“我們注意到你了,我們想把你從犯罪圈里解脫出來(lái),這些是我們準(zhǔn)備的社會(huì)服務(wù)項(xiàng)目。”而所謂的“社會(huì)服務(wù)項(xiàng)目”,可能是從清理社區(qū)、志愿者活動(dòng)到職業(yè)培訓(xùn),到底是要嫌疑人自己去做還是全家都要換地方,也沒(méi)有說(shuō)清楚。
如果這位嫌疑人不同意繼續(xù)要留在算法設(shè)定的高犯罪地區(qū),警方就會(huì)發(fā)出警告,“如果你在此區(qū)域犯罪,你可能會(huì)被處以更嚴(yán)重的懲罰。”
怎么定罪,人工智能也會(huì)參與其中
2013 年,艾瑞克·盧米斯因?yàn)橥弟嚤幻绹?guó)威斯康辛州的法院判處了 6 年的有期徒刑。
他偷來(lái)的車曾經(jīng)參與過(guò)一場(chǎng)槍擊案,車尾箱里還有槍。警方原本以為是人贓并獲,結(jié)果查清楚是誤判,盧米斯其實(shí)并沒(méi)有參加持槍犯罪,只是剛好偷了一輛有過(guò)犯罪記錄的車。如果只是犯了偷車,根據(jù)威斯康辛州的法律,刑期最多是入獄三年,然后還有三年是出獄監(jiān)視。
但法院還是給盧米斯判了更重的刑罰。法庭的量刑參考的是一套名為 COMPAS 的人工智能算法。這個(gè)十分制的“打分”機(jī)制被美國(guó)司法部用于判斷有過(guò)犯罪紀(jì)錄的人未來(lái)犯罪的幾率。
盧米斯在偷車之前,曾經(jīng)因?yàn)樾苑缸锶氇z。上次入獄的時(shí)候,COMPAS 算法當(dāng)時(shí)給他打了一個(gè)高分。這次,這個(gè)分?jǐn)?shù)被威斯康辛州法院當(dāng)作參考數(shù)值了。
盧米斯提起上訴,要求公開(kāi)算法是對(duì)他評(píng)分的機(jī)制,他認(rèn)為評(píng)分細(xì)則里有性別等參考因素。
這個(gè)要求遭到了法院的拒絕:他們認(rèn)為給罪犯做打分分析是自從 1923 年就開(kāi)始有的事情,而且這個(gè)算法是開(kāi)發(fā)方 Northpointe 公司的知識(shí)產(chǎn)權(quán),所以不能公開(kāi)。而對(duì)于盧米斯的考量除了算法還有別的機(jī)制,所以是公平公正的,就在今年 5 月 23 日,法庭駁回了上訴,維持原判。
如果在美國(guó)犯罪進(jìn)了監(jiān)獄,COMPAS 這個(gè)人工智能算法很可能就會(huì)接管你的個(gè)人數(shù)據(jù)。入獄者填寫一份個(gè)人情況調(diào)查問(wèn)卷,綜合犯罪的嚴(yán)重程度,COMPAS 會(huì)計(jì)算出一套“未來(lái)罪犯”的評(píng)分機(jī)制。為避免歧視,這份問(wèn)卷里并沒(méi)有問(wèn)種族、收入等敏感的維度,但會(huì)有這么一些類似問(wèn)題:
你在什么地方居住?
你的教育程度?
你中學(xué)之前有坐過(guò)飛機(jī)旅行嗎?
你的親人、朋友有人曾經(jīng)參與犯罪嗎?
去年,非盈利調(diào)查機(jī)構(gòu) ProPublica 從警方處拿到 1.8 萬(wàn) COMPAS 評(píng)分?jǐn)?shù)據(jù),然后做了一份調(diào)查報(bào)告,追蹤這些人在兩年來(lái)的再犯罪的記錄。
最后出來(lái)的結(jié)果是:
窮人更容易犯罪;
教育程度低的人更容易犯罪;
黑人更容易再犯罪;
男性更容易犯罪。
從統(tǒng)計(jì)數(shù)字看,這些可能都是事實(shí)。但這樣的數(shù)據(jù)被反過(guò)來(lái)用在判斷一個(gè)個(gè)體未來(lái)犯罪的可能性,并就此量刑的時(shí)候,就有問(wèn)題了。
這和前段時(shí)間被開(kāi)除的那位美團(tuán)點(diǎn)評(píng)人事在招聘信息里寫的“不要黃泛區(qū)及東北人士”沒(méi)什么本質(zhì)區(qū)別。
在美國(guó),COMPAS 是從 2000 年初就開(kāi)始在全國(guó)的司法機(jī)構(gòu)使用,這個(gè)算法已經(jīng)修改到第四版。在各個(gè)州法官量刑或者警察盤查疑犯的時(shí)候,會(huì)把 COMPAS 分?jǐn)?shù)作為參考。
2014 年,時(shí)任司法部長(zhǎng) Eric Holder 公開(kāi)表示,美國(guó)法庭依賴算法來(lái)判定罪行,預(yù)測(cè)再犯罪是有風(fēng)險(xiǎn)的。Holder 表示,美國(guó)的法官量刑過(guò)于依賴這套評(píng)分算法。
看起來(lái)公平的算法,背后依然受設(shè)計(jì)者的偏見(jiàn)影響
有一個(gè)關(guān)于科研的比喻,說(shuō)科學(xué)家在研究新東西的時(shí)候容易過(guò)度分析自己已經(jīng)有的信息,強(qiáng)行從中獲得結(jié)論,進(jìn)而忽視了未知因素的影響。
一個(gè)人在室外停車場(chǎng)丟了鑰匙,他首先會(huì)去看路燈照耀下的路面。
這不是因?yàn)殍€匙更可能丟在路燈下,而是因?yàn)檫@里比較容易找。
人工智能算法判斷一個(gè)人的犯罪可能也差不多。
MIT 教授 Ethem Alpaydin 曾經(jīng)這么解釋現(xiàn)在最新的機(jī)器學(xué)習(xí)的原理:
以前你需要知道特定的數(shù)據(jù)要來(lái)實(shí)現(xiàn)什么,于是雇傭一個(gè)程序員來(lái)編寫程序。機(jī)器學(xué)習(xí)就是,現(xiàn)在計(jì)算機(jī)自己學(xué)會(huì)處理和識(shí)別這些數(shù)據(jù),程序也是自己寫的,然后導(dǎo)出你所需要的結(jié)果。
要做一個(gè)判定誰(shuí)是罪犯的系統(tǒng)。首先,是這個(gè)機(jī)器學(xué)習(xí)算法的設(shè)計(jì)者在判斷“什么樣的人更容易犯罪?”然后再把不同原因分解開(kāi)來(lái),去搜集數(shù)據(jù)。
一個(gè)人犯罪的可能性有千千萬(wàn)萬(wàn),而算法設(shè)計(jì)者輸入進(jìn)去的維度,就好像路燈下的路面。計(jì)算機(jī)強(qiáng)行在設(shè)計(jì)者覺(jué)得重要的維度里判斷一個(gè)人犯罪的可能性。
更糟糕的是,今天的機(jī)器學(xué)習(xí)算法基本是黑盒子——輸入了數(shù)據(jù),等待輸出結(jié)果。但當(dāng)中機(jī)器是怎么識(shí)別的,即使是算法的設(shè)計(jì)者,也不能肯定。
上個(gè)月,上海交大教授武筱林和博士生張熙的論文引來(lái)爭(zhēng)議。他們的論文《基于面部圖像的自動(dòng)犯罪性概率推斷》用機(jī)器學(xué)習(xí)算法和圖像識(shí)別技術(shù)掃描了 1856 張中國(guó)成年男子的身份證照片,讓算法來(lái)判斷這個(gè)人是不是罪犯,稱成功率達(dá)到了 90%。
武筱林和張熙還總結(jié)了這些罪犯的面相特點(diǎn):內(nèi)眼角間距比普通人短 5.6%,罪犯的上唇曲率不一樣,罪犯的鼻唇比非罪犯角度小19.6%,罪犯跟普通人相比,面部特征來(lái)的更明顯。
這篇文章在發(fā)布之初就惹來(lái)了一些種族歧視的爭(zhēng)議。5 月初,Google 和普林斯頓大學(xué)的三位研究人員寫了一篇反駁文章,名為《相面學(xué)的新衣》。他們?cè)谖恼轮姓J(rèn)為武筱林的研究方法跟 150 年前的意大利的“醫(yī)學(xué)相面術(shù)”類似,只是使用了機(jī)器學(xué)習(xí)算法:
“1870 年意大利醫(yī)生龍勃羅梭(Lombroso) 打開(kāi)了意大利罪犯維萊拉尸體的頭顱,發(fā)現(xiàn)其頭顱枕骨部位有一個(gè)明顯的凹陷處,它的位置如同低等動(dòng)物一樣。這一發(fā)現(xiàn)觸發(fā)了他的靈感,他由此提出‘天生犯罪人’理論,認(rèn)為犯罪人在體格方面異于非犯罪人,可以通過(guò)卡鉗等儀器測(cè)量發(fā)現(xiàn)。龍勃羅梭并認(rèn)為犯罪人是一種返祖現(xiàn)象,具有許多低級(jí)原始人的特性,可被遺傳。”
來(lái)自 Google 的研究者 Blaise Aguera y Arcas 解釋,神經(jīng)網(wǎng)絡(luò)算法“判斷”圖片的方式跟人不太一樣:給數(shù)百萬(wàn)個(gè)學(xué)習(xí)參數(shù)加不同的權(quán)重。比如讓算法判斷一張圖片是來(lái)自什么年代,機(jī)器學(xué)習(xí)很可能學(xué)到了發(fā)現(xiàn)各種細(xì)微線索,從比較低層次的“膠片顆粒和色域”到衣服和發(fā)型,乃至車型和字體。
所以機(jī)器學(xué)習(xí)到底從這 1000 多張身份證照片中學(xué)到的規(guī)律是什么?
不一定是罪犯的面部都有什么獨(dú)特的特征,可能是圖片的顆粒度,也可能是其他一些共同特點(diǎn)——例如襯衫。例如,武筱林論文中的 3 個(gè)“非罪犯”圖像中都穿著白領(lǐng)襯衫,而另外 3 名被判別為“罪犯”的都沒(méi)有。當(dāng)然,只有 3 個(gè)例子,Blaise Aguera y Arcas 寫到,“我們不知道這是否代表整個(gè)數(shù)據(jù)集。”
而在我們都不知道機(jī)器學(xué)習(xí)的做判斷的方式時(shí),作為算法的設(shè)計(jì)者,我們?nèi)祟惤o出的“假設(shè)”,以及我們給出的數(shù)據(jù),可能決定了算法的走向。
《相面學(xué)的新衣》的第三作者,普林斯頓大學(xué)法學(xué)系教授 Alexander T. Todorov 告訴《》,“有些人認(rèn)我們的文章是在攻擊武筱林,但并不是有意如此。我們想做的是展示這個(gè)結(jié)果并不如他們展現(xiàn)的那樣‘客觀’,武筱林進(jìn)行的假設(shè)是未經(jīng)檢驗(yàn)的。”
這事情在 1980 年代也發(fā)生過(guò)——對(duì),今天每個(gè)科技公司都在炒的機(jī)器學(xué)習(xí)那時(shí)候就有了。
當(dāng)時(shí),美國(guó)軍方想要設(shè)計(jì)一套算法,想讓計(jì)算機(jī)自動(dòng)從照片里分辨美蘇兩國(guó)的坦克。
經(jīng)過(guò)一段時(shí)間訓(xùn)練他們的算法,識(shí)別準(zhǔn)確率已經(jīng)很不錯(cuò)了。
但后來(lái)工程師們發(fā)現(xiàn),這不是因?yàn)橛?jì)算機(jī)真的認(rèn)出了兩國(guó)坦克的設(shè)計(jì)不同。
事實(shí)上計(jì)算機(jī)認(rèn)為像素更高的圖片等同于“美國(guó)坦克”。
這是因?yàn)槟菚?huì)兒還在冷戰(zhàn)中,輸入資料庫(kù)的照片里,俄羅斯坦克的照片更模糊。
“新技術(shù)有為善和作惡的潛在力量。如果你的假設(shè)沒(méi)有被仔細(xì)考證,那么機(jī)器學(xué)習(xí)技術(shù)只會(huì)帶來(lái)更多的不公平和加速現(xiàn)有的不平等。” Todorov 用這句話結(jié)束了我們的采訪。
而如果你覺(jué)得這件事只是美國(guó)警方的才會(huì)有的問(wèn)題。那么也可以看看彭博社早前的一篇報(bào)道。
政府直接管理的技術(shù)公司“中國(guó)電子科技集團(tuán)”也正在開(kāi)發(fā)軟件,整理公民的行為數(shù)據(jù),包括工作,興趣,消費(fèi)習(xí)慣等等,以便在恐怖襲擊之前就預(yù)測(cè)罪犯的行為。軍事總承包商總工程師吳曼青說(shuō):“在恐怖行為之后的檢查很重要, 但更重要的是預(yù)測(cè)。”
這篇報(bào)道對(duì)于這個(gè)新系統(tǒng)的信息非常含糊。具體會(huì)從什么地方收集數(shù)據(jù),算法是誰(shuí)來(lái)編寫,是否已經(jīng)上線,其實(shí)很難被公眾所知。
算法和人工智能技術(shù),只是目前這些人類社會(huì)的司法機(jī)構(gòu)問(wèn)題的一個(gè)數(shù)字化的版本而已。盡管提高了效率,但它可能更能免除普通執(zhí)法者對(duì)于地區(qū)、人群、種族的偏見(jiàn)的責(zé)任:因?yàn)檫@是一個(gè)客觀機(jī)器學(xué)習(xí)算法的選擇。
預(yù)測(cè)犯罪的算法也會(huì)影響到日常生活
“你雇用的人,真的可以信任嗎?”
今年 5 月,在加州桑尼維爾一個(gè)金融科技(FinTech)創(chuàng)業(yè)分享會(huì)上,侯賽因·何塞從這個(gè)問(wèn)題開(kāi)始,介紹起自己的公司 Onfido。
侯賽因·何塞在現(xiàn)場(chǎng)用圖片演示,可以用算法來(lái)幫企業(yè)確定雇傭的人是否“靠譜”。
使用方法和滴滴司機(jī)上傳拿著身份證的照片的過(guò)程有點(diǎn)類似,讓人拿著證件拍一張照片。
之后 Onfido 會(huì)掃描雇員照片,做人臉識(shí)別、背景調(diào)查,幾十秒之內(nèi)可以確認(rèn)這個(gè)人是不是他聲稱的人、有沒(méi)有犯罪前科、是不是非法移民。
Onfido 最開(kāi)始也是做 Uber 的生意,但自從去年開(kāi)始 Uber 增長(zhǎng)放緩,侯賽因就開(kāi)始讓公司轉(zhuǎn)型,從識(shí)別共享經(jīng)濟(jì)的顧客有沒(méi)有犯罪記錄,變成了給銀行做貸款人的背景調(diào)查。“其實(shí)我們更像是 RegTech 公司(政策科技公司)了,因?yàn)閿?shù)據(jù)要跟政府有一定合作。”
Onfido 去年一下拿了接近 3000 萬(wàn)美元,最新投資者有紅杉、Saleforce。他們的競(jìng)爭(zhēng)對(duì)手 Checkr 的投資者來(lái)頭更大,Google Venture、YC、Accel……去年已經(jīng)拿了 5000 萬(wàn)美元了。
Onfido 的網(wǎng)站上,識(shí)別之后數(shù)據(jù)會(huì)用在什么地方并沒(méi)有清楚的解釋。雇主獲得信息之后怎么辦也不在它關(guān)心的范圍內(nèi)。
我在現(xiàn)場(chǎng)問(wèn)了侯賽因數(shù)據(jù)隱私保護(hù)以及怎么獲取第一筆數(shù)據(jù),他的回答卻很含糊:跟銀行、政府等本身?yè)碛写罅繑?shù)據(jù)等機(jī)構(gòu)合作是最快的訓(xùn)練算法的方式,他們也想要讓那些普通人更快通過(guò)審核,獲得他們想要的貸款和工作機(jī)會(huì)。
更多的,他怎么也不愿意說(shuō)了。
這樣的謹(jǐn)慎態(tài)度能在許多銷售犯罪分析相關(guān)產(chǎn)品的公司身上看到。
給罪犯打分的 COMPAS 算法背后的 Northpointe 公司在被《紐約時(shí)報(bào)》、ProPublica 等多個(gè)媒體報(bào)道后,改了新品牌 Equivant 重新賣服務(wù)。
今年 5 月,在美國(guó)加州山景城舉行了一場(chǎng)名為 SVOD 的創(chuàng)投大會(huì)。
剛離職沒(méi)多久的人工智能專家,前百度人工智能實(shí)驗(yàn)室負(fù)責(zé)人的吳恩達(dá)在臺(tái)上說(shuō):“人工智能就是 21 世紀(jì)的電力設(shè)施,抓住這個(gè)新技術(shù)的公司,將會(huì)在下一輪的競(jìng)爭(zhēng)中跑得更快。”
一個(gè)一個(gè)初創(chuàng)公司走上臺(tái),介紹自己的項(xiàng)目。當(dāng)中有給企業(yè)做臉部識(shí)別方案的、做語(yǔ)音識(shí)別系統(tǒng)的。臺(tái)下投資人們拋出一個(gè)又一個(gè)問(wèn)題。
“你們識(shí)別率有多準(zhǔn)?”
“你們考慮怎么退出?”
……
公平和隱私,可能并不一定在他們的考慮范圍。在臺(tái)上的創(chuàng)業(yè)公司展示結(jié)束后,一個(gè)專門給兒童做人工智能助手的創(chuàng)業(yè)者 Ivan Crewkov 跟我聊起人工智能的未來(lái),我問(wèn)如果機(jī)器學(xué)習(xí)算法一個(gè)從小就知道小孩是誰(shuí),優(yōu)點(diǎn)缺點(diǎn)是什么,不會(huì)覺(jué)得擔(dān)心嗎?
他說(shuō),“我是個(gè)樂(lè)天派,即使有更多監(jiān)管,我想商業(yè)上一定會(huì)向前走的。”
大會(huì)結(jié)束后,吳恩達(dá)談到了自己的對(duì)于監(jiān)管人工智能的態(tài)度,這也是業(yè)內(nèi)的典型態(tài)度:“我覺(jué)得現(xiàn)在太早了。技術(shù)還沒(méi)完全發(fā)展起來(lái),太多設(shè)限會(huì)阻礙發(fā)展。”