要想發(fā)展人工智能,不得不思考這些問題!
近日,某品牌汽車在樣車測(cè)試期間發(fā)生事故,造成了很大的人員財(cái)產(chǎn)損失,第一時(shí)間沖上了新聞?lì)^條。同時(shí),被輿論關(guān)注的還有老生常談的汽車自動(dòng)駕駛問題。自動(dòng)駕駛是否安全?是否應(yīng)該開放自動(dòng)駕駛?在自動(dòng)駕駛的外殼下,人工智能能否擁有道德判斷作為問題的核心也難下定論。
“電車難題”人工智能面臨道德困境
美國(guó)MIT設(shè)計(jì)了一個(gè)名為道德機(jī)器(Moral Machine)的網(wǎng)站,網(wǎng)站設(shè)計(jì)汽車失控的各種情景讓觀眾做出選擇,通過收集300萬用戶的反饋,道德機(jī)器發(fā)現(xiàn),人們更傾向于讓自動(dòng)駕駛車自毀以保障更多人的生命,卻希望自己的車沒有這個(gè)特征。這一結(jié)論與文化、習(xí)俗無關(guān),是人類通常普遍的選擇,與社會(huì)普遍認(rèn)知相契合,人們希望通過犧牲少數(shù)人的生命換取更多人的生命。但這與法律是相違背的,因?yàn)槿说纳旧聿⒉豢梢赃M(jìn)行比較和量化。
這是自動(dòng)駕駛不可避免的道德問題。一方面,如果允許AI在失控中做出決策,根據(jù)權(quán)責(zé)一體的規(guī)定,也就意味著AI或其背后的自動(dòng)駕駛公司應(yīng)當(dāng)對(duì)決策行為承擔(dān)責(zé)任。另一方面,如果不允許AI做出決策,則不能稱為自動(dòng)駕駛——因?yàn)樽詣?dòng)駕駛汽車的定義是不需要人為操作即能感測(cè)其環(huán)境及導(dǎo)航駕駛的汽車。
自動(dòng)駕駛遇到的“電車難題”只是人工智能行業(yè)遭遇的困境的一個(gè)縮影。盡管隨著科技的進(jìn)步和大數(shù)據(jù)行業(yè)的發(fā)展,人工智能模型越發(fā)成熟,但是在涉及道德、意識(shí)等人性方面的問題時(shí)卻陷入尷尬的處境:根據(jù)人工智能“奇點(diǎn)”論,人工智能終會(huì)在理性和感性方面超過人類,但對(duì)人工智能的安全問題,人類又歷來有“弗蘭肯斯坦情結(jié)”,一般人類在心理上無法接受與非生物的機(jī)器產(chǎn)生共情。
人工智能可能以任何形態(tài)存在??萍歼M(jìn)入量子時(shí)代,無論是固體、液體還是氣體,只要能進(jìn)行粒子層面的利用,都有可能嫁接人工智能。這讓科技進(jìn)一步爆炸性發(fā)展成為可能,它將深刻影響人類的文明,甚至人類自身的演化進(jìn)程。
但人類從來對(duì)科技就沒有能夠進(jìn)行有效控制,這是人性,僅僅依靠道德、法律來約束是遠(yuǎn)遠(yuǎn)不夠的。比如,美國(guó)人人可以持槍,所以一定有人要被槍殺;第一次工業(yè)革命讓英國(guó)稱霸全球。以這種邏輯,無論人工智能是否出現(xiàn)國(guó)家間的優(yōu)劣態(tài)勢(shì),也無法擺脫人性的罪惡操弄。它將使人與人之間的相害變得非常容易,更會(huì)大大提高全球戰(zhàn)爭(zhēng)風(fēng)險(xiǎn)。
之所以人類無法有效控制,是因?yàn)榭刂频牧Χ群头绞酵耆粚?duì),更深層的原因是社會(huì)治理架構(gòu)的系統(tǒng)性問題。從認(rèn)知層面、到管理層面、到立法層面、到執(zhí)行層面,竟然完全缺失。因?yàn)闆]有人去思考,怎樣才能讓人工智能只為人服務(wù)!
當(dāng)今社會(huì)還有一個(gè)最大的威脅來自資本,因?yàn)槿斯ぶ悄艿拈_發(fā),需要大量的資金投入。如此一來,越是高精尖的項(xiàng)目,越是具有領(lǐng)先優(yōu)勢(shì)的技術(shù),越會(huì)被大資本所控制。一旦他們所控制的技術(shù),在某些領(lǐng)域形成絕對(duì)優(yōu)勢(shì)和壟斷,那么別說挑戰(zhàn)政權(quán),就是奴役全人類,毀滅全人類也是輕輕松松的事情。
新的貨幣體系和治理體系,已經(jīng)為消滅資本主義打下基礎(chǔ),我們要做的,是避免個(gè)人或者機(jī)構(gòu)在掌握優(yōu)勢(shì)技術(shù)以后,將優(yōu)勢(shì)轉(zhuǎn)化成挑戰(zhàn)公共安全和政權(quán)的勢(shì)力。
有偏見的機(jī)器人如何工作?
研究人員查看機(jī)器人選擇不同性別和種族的照片的次數(shù)比例。事實(shí)證明,它是有偏見地行事。它選了更多地男性,其中包括白人和亞洲人。它最不容易識(shí)別的是黑人女性。它更有可能將女性視為“管家”,將黑人男性視為“罪犯”,將西班牙裔視為“看門人”。
這項(xiàng)研究表明人工智能已經(jīng)學(xué)會(huì)復(fù)制人類的刻板印象。
盡管表面上看,這可能產(chǎn)生不了實(shí)際的影響。
但“當(dāng)一個(gè)孩子要求機(jī)器人給他一個(gè)漂亮的娃娃時(shí),機(jī)器人會(huì)伸手去拿一個(gè)白色的娃娃”,它的主觀意識(shí)里面認(rèn)為這個(gè)是漂亮的。
在商店里,當(dāng)產(chǎn)品包裝上有人臉時(shí),機(jī)器更容易伸手去拿印有白人的商品。
人工智能的偏見是一個(gè)真正的問題。學(xué)術(shù)界和商業(yè)界都意識(shí)到了這個(gè)問題,并正在努力克服并解決它。期待有一天能真正見到人工智能。