人工智能識(shí)別性取向:披著技術(shù)外衣的面相學(xué)
近期,一份來(lái)自斯坦福大學(xué)的研究聲稱(chēng),他們的算法可以通過(guò)對(duì)照片中人物的表情、動(dòng)作和神態(tài)進(jìn)行分析,推斷出人物的性取向。 但批評(píng)家卻認(rèn)為,這只是披上了人工智能外衣的偽科學(xué)和面相學(xué)。這些早已被西方科學(xué)世界摒棄的落后觀念,如今在新科技的掩飾下,重新抬頭。 研究的狹隘性斯坦福的研究給出了一個(gè)看似很高的判斷精確度:當(dāng)人工智能對(duì)單張照片分析時(shí),它猜對(duì)圖中男性性取向的幾率為81%,而女性則為71%。
當(dāng)每位被分析人物的照片增加到5張時(shí),算法分析男性和女性的性取向正確率分別高達(dá)91%和83%。 但問(wèn)題是,研究人員在測(cè)試時(shí),是按兩人一組的形式并行測(cè)試,每組人物一“直”一“彎”,因此,即使人工智能只是瞎蒙,都能有50%的準(zhǔn)確率。
而且,研究人員聲稱(chēng)算法的分析只專(zhuān)注于五官研究,而采用的VGG-Face軟件可最小化流動(dòng)性因素,如打光、姿勢(shì)和表情等的干擾。 但人工智能面部識(shí)別方向的研究人員Tom White 則表示,VGG-Face 捕抓那些流動(dòng)性元素能力也很強(qiáng)。
這個(gè)被作為研究的基本數(shù)據(jù)本身就是有偏見(jiàn)的。
來(lái)自美國(guó)歐柏林大學(xué)的社會(huì)學(xué)教授Greggor Mattson 指出,由于這些照片是從約會(huì)網(wǎng)站中抓取的,意味著,這些照片本身就是由用戶(hù)專(zhuān)門(mén)精選,用來(lái)吸引特定性取向的人。 也就是說(shuō),這些照片都是用戶(hù)演繹出來(lái),迎合他們認(rèn)為社會(huì)對(duì)該性取向人群的定位,換言之——刻板印象。 雖然研究團(tuán)隊(duì)也曾將算法拿到研究以外的素材進(jìn)行測(cè)試,但那些素材本身也是具有偏見(jiàn)的。畢竟,并不是所有男同志都會(huì)給“我彎我自豪”這類(lèi)頁(yè)面點(diǎn)贊,而有點(diǎn)贊的人,也許也可能會(huì)趨于迎合特定刻板印象。 而他們所忽略的,是這個(gè)群體中所包含的,無(wú)數(shù)的無(wú)規(guī)律的非典型行為。
這個(gè)研究的主負(fù)責(zé)人Kosinski 也表示,他的研究也可能是錯(cuò)的,并表示“想要核實(shí)結(jié)果正確性,我們還得進(jìn)行更多研究。”但如何才能確定研究不會(huì)帶有偏見(jiàn)呢?對(duì)此,Kosinski 的回應(yīng)是:
想要測(cè)試和驗(yàn)證一個(gè)結(jié)果的正確性,你并不需要理解(研究)模型的工作原理。 而The Verge 則認(rèn)為,正是這種研究中的不透明性,才會(huì)使得這些研究充滿了誤導(dǎo)性。 人工智能也是人類(lèi)帶著偏見(jiàn)制造的新工具
在歷史的長(zhǎng)河上,人類(lèi)將自身偏見(jiàn)投射于當(dāng)時(shí)最好工具的例子一直都很多。 而將人類(lèi)外表和人的個(gè)性和本質(zhì)關(guān)聯(lián)的觀念,從古希臘時(shí)期就已經(jīng)存在了,而到了19 世紀(jì),更是被工具賦予了“科學(xué)”的假象。 當(dāng)時(shí)的面相學(xué)研究者認(rèn)為,人類(lèi)額頭形成的角度,或是人鼻子的形狀,都可作為判斷一個(gè)人是誠(chéng)實(shí)還是有犯罪傾向的例證。雖然這些說(shuō)法早已被判斷為偽科學(xué),但如今卻在人工智能時(shí)代“重獲新生”。
去年,來(lái)自上海交大的研究團(tuán)隊(duì)還聲稱(chēng)研發(fā)了一個(gè)辨識(shí)罪犯的神經(jīng)網(wǎng)絡(luò)系統(tǒng),引來(lái)了人工智能社區(qū)怒斥,三名來(lái)自Google 的研究人員更是撰寫(xiě)萬(wàn)字長(zhǎng)文批評(píng)這些研究者。 而一家名為FacepTIon 的新創(chuàng)企業(yè)也聲稱(chēng)可以通過(guò)面容分析來(lái)識(shí)別恐怖分子。
但是,人工智能就真的可以客觀地分析和研究這些數(shù)據(jù)嗎?澳大利亞國(guó)立大學(xué)的社會(huì)學(xué)講師Jenny Davis 并不同意:
人工智能并不是真的純“人工”。 機(jī)器學(xué)習(xí)的方式就和人類(lèi)學(xué)習(xí)的方式一樣。我們從文化中提取并吸收社會(huì)結(jié)構(gòu)的常態(tài),而人工智能也是這樣。 因此,它(人工智能)也會(huì)再建、擴(kuò)大并且延續(xù)我們?nèi)祟?lèi)為它們?cè)O(shè)下的道路,而這些道路,一直都將反映現(xiàn)存的社會(huì)常態(tài)。 而無(wú)論是根據(jù)面容來(lái)判斷一個(gè)人是否誠(chéng)實(shí),或是判斷他的性取向,這些算法都是基于社會(huì)原有生物本質(zhì)主義(biological essenTIalism),這是一種深信人的性取向等本質(zhì)是根植于人身體的理論。 Davis 還指出,這些是“很有用”的理論,因?yàn)樗梢詮奶囟ㄈ巳褐刑崛〕瞿撤N特質(zhì),并通過(guò)將該特質(zhì)定義為“次要、劣勢(shì)”,來(lái)成為原本就有偏見(jiàn)的人群進(jìn)行歧視的“正當(dāng)理由”。
今年年初,來(lái)自巴斯大學(xué)和普林斯頓大學(xué)的計(jì)算機(jī)科學(xué)家就曾用類(lèi)似IAT(內(nèi)隱聯(lián)想測(cè)驗(yàn))的聯(lián)想類(lèi)測(cè)試來(lái)檢測(cè)算法的潛在傾向性,并發(fā)現(xiàn)即使算法也會(huì)對(duì)種族和性別帶有偏見(jiàn)。 甚至,連Google 翻譯也難逃偏見(jiàn),算法“發(fā)現(xiàn)”并“學(xué)習(xí)”了社會(huì)約定俗成的偏見(jiàn)。當(dāng)在特定語(yǔ)言環(huán)境中,一些原本是中性的名詞,如果上下文具有特定形容詞(中性),它會(huì)將中性詞轉(zhuǎn)而翻譯為“他”或“她”。
說(shuō)到這里,也許大家已經(jīng)可以看出,Kosinski 和Wang 研究(斯坦福研究)的精確性已經(jīng)不是最重要的了。 如果有人想相信人工智能可以判斷性別取向,(無(wú)論準(zhǔn)確度如何)他們都會(huì)拿來(lái)用。 因此,更重要的,是我們要理解人工智能的限制性,并在它造成危害之前中和它。 The Verge 評(píng)論道。但最麻煩的,在于大多數(shù)時(shí)候,我們都沒(méi)法察覺(jué)到自身存在的偏見(jiàn),那我們又怎樣可期望我們做出來(lái)的工具是絕對(duì)公正的呢?