相信很多人都思考過人類未來與機器人的生活,這種設(shè)想早在上個世紀(jì)就已經(jīng)開始了,機器人永遠忠誠,而且他們擁有著極強的先進性和非常棒的身體素質(zhì),在未來可以代替人類的工作,而且還能與人類做朋友甚至戀人,這種生活讓我們非常的向往。
不過這里面也遇到一個問題,那就是機器人相比較于人類有著很大的優(yōu)越性,那么未來人類如何能夠與他做到平等的和平相處呢?當(dāng)年阿西莫夫和后來的機器人學(xué)的科學(xué)家們提出了機器人三大定律,也就是說,讓機器人在保證自身安全的小前提下,確保不得傷害人類和幫助人類這兩個大前提。
這機器人三大定律一直認(rèn)為是未來人與機器人和諧相處的金科玉律,也被當(dāng)成是人與機器人和平共處的防火墻,但是這個理論真的能夠在未來約束機器人嗎?
有一些反對機器人學(xué)的科學(xué)家提出了一個有趣的猜想,那就是假若在未來機器人和人類成為了好朋友,當(dāng)某一天他遇到了警察與小偷發(fā)生槍戰(zhàn),在兩邊生命都遇到危險的情況下,那么請問機器人到底是應(yīng)該幫助警察還是應(yīng)該幫助小偷呢?
很明顯在一個法律角度上來看,機器人應(yīng)該幫助警察去收拾掉小偷,但假若在機器人學(xué)的三大定律上,機器人必須確保每一個人的生命安全,哪怕小偷也是如此,那么在這種情況下,機器人就會陷入到選擇的混亂之中,他既要幫助警察,又要幫助小偷,而且他還不能造成兩者之間誰的傷害,所以他就只能拿著自己去擋在前面兩人之中的子彈,但最終結(jié)果依舊會是導(dǎo)致小偷逃跑。
所以機器人在面臨這種復(fù)雜的現(xiàn)象的時候,人類的邏輯其實未必適用于機器人,如果我們只讓他冷冰冰的執(zhí)行命令,那么,很有可能它會侵犯到人類的生命,因為法律是冷冰冰的,而且沒有彈性的,假如我們給了他充分的自主權(quán),那么她在情感的演繹上很有可能會產(chǎn)生自我的邏輯,擺脫人類的邏輯性,就好像我與機器人這部電影中一樣,機器人最終獨立。
所以我們在這個前提下再來看機器人學(xué)的那些研究,其實我們會發(fā)現(xiàn)機器人,如果光憑人類的邏輯來約束他,根本是做不到的,我們只能用更多的引導(dǎo)來促進人與機器人未來的和平相處。