蘋(píng)果聯(lián)合創(chuàng)始人史面對(duì)AI無(wú)所畏懼
對(duì)于A(yíng)I的擔(dān)憂(yōu),史蒂芬-霍金和特斯拉與SpaceX公司CEO埃隆-馬斯克都曾對(duì)此表示過(guò),蘋(píng)果聯(lián)合創(chuàng)始人史蒂夫-沃茲尼亞克曾信以為真,但是近日沃茲尼亞克第一次改變自己對(duì)人工智能的看法,他現(xiàn)在認(rèn)為“人工智能技術(shù)不會(huì)威脅到人類(lèi)”。
據(jù)國(guó)外媒體報(bào)道稱(chēng),特斯拉與SpaceX公司CEO埃隆-馬斯克(Elon Musk)和備受尊敬的物理學(xué)家史蒂芬-霍金(StephenHawking)此前都對(duì)人工智能技術(shù)表示過(guò)擔(dān)憂(yōu),他們認(rèn)為“人工智能發(fā)展到未來(lái)可能會(huì)帶來(lái)嚴(yán)重的后果”。
其中,馬斯克認(rèn)為“人工智能可能會(huì)給人類(lèi)文明的生存帶來(lái)重大威脅”。
霍金則在去年4月通過(guò)視頻發(fā)表了題為《讓人工智能造福人類(lèi)及其賴(lài)以生存的家園》的主題演講。他在演講中表示,“人工智能可能是人類(lèi)文明歷史上最糟糕的東西。它和自動(dòng)化武器一樣,為世界帶來(lái)了危險(xiǎn),為讓少數(shù)人對(duì)多數(shù)人進(jìn)行壓迫提供了新的途徑。同時(shí),它也有可能會(huì)給我們的經(jīng)濟(jì)帶來(lái)重大破壞作用”。
而在此之前,蘋(píng)果聯(lián)合創(chuàng)始人史蒂夫-沃茲尼亞克(Steve Wozniak)也曾經(jīng)對(duì)人工智能技術(shù)持有類(lèi)似的看法,但如今的他似乎改變了自己的態(tài)度。沃茲尼亞克在本月24日于瑞典斯德哥爾摩召開(kāi)的“北歐商業(yè)論壇”(NordicBusiness Forum)上表示:“人工智能技術(shù)并不可怕。”
他解釋稱(chēng),這主要是因?yàn)槿缃竦臋C(jī)器或者說(shuō)人工智能技術(shù)在認(rèn)知能力方面甚至還遠(yuǎn)遠(yuǎn)落后于人類(lèi)幼童的水平,因此自己對(duì)于這一技術(shù)的發(fā)展尚不擔(dān)心。
“一個(gè)兩歲的小女孩在看過(guò)一次狗之后,就能永遠(yuǎn)記住狗的樣子。而計(jì)算機(jī)則需要大量、重復(fù)觀(guān)看狗的圖片,才能記住什么是狗。如果要讓機(jī)器超越人類(lèi),它們則需要經(jīng)歷我們所經(jīng)歷的一切,比如要學(xué)會(huì)提煉材料、打造產(chǎn)品、制造衣物和生產(chǎn)食品等,而這恐怕需要數(shù)百年的時(shí)間才能做到。”沃茲尼亞克說(shuō)道。
事實(shí)上,這并不是沃茲尼亞克第一次改變自己對(duì)人工智能的看法了。在此前很長(zhǎng)一段時(shí)間內(nèi),他并不覺(jué)得人工智能有任何可怕之處。但在隨后遇到了著名未來(lái)主義作家雷-科茲威爾(Ray Kurzweil),而后者在他的著作《奇點(diǎn)臨近:當(dāng)人類(lèi)超越生物學(xué)》(TheSingularity Is Near: When Humans Transcend Biology)中提出了一個(gè)觀(guān)點(diǎn),那就是“計(jì)算機(jī)的處理和認(rèn)知能力將在2024年左右達(dá)到和人類(lèi)大腦一樣的水平”。
在這之后,沃茲尼亞克也改變了自己對(duì)人工智能的看法。
“我相信了科茲威爾的觀(guān)點(diǎn),在整整兩年的時(shí)間內(nèi),我經(jīng)常會(huì)在公開(kāi)場(chǎng)合表達(dá)自己對(duì)于A(yíng)I的擔(dān)憂(yōu)。比如,我認(rèn)為這些機(jī)器最終將會(huì)產(chǎn)生自己的意識(shí)、它們之間將能夠進(jìn)行對(duì)話(huà),并且能夠獨(dú)立思考,我曾經(jīng)認(rèn)為這樣的事情一定會(huì)發(fā)生!”沃茲尼亞克解釋道。
但此后的沃茲尼亞克一直在質(zhì)疑自己的觀(guān)點(diǎn),最終他對(duì)人工智能的看法又回到了最初的起點(diǎn),即認(rèn)為“人工智能技術(shù)不會(huì)威脅到人類(lèi)”。
沃茲尼亞克透露,自己一直在思考人類(lèi)大腦的能力和無(wú)限潛能。最后,他認(rèn)定人類(lèi)大腦要比計(jì)算機(jī)強(qiáng)大的多,因此自己也不再像馬斯克和霍金一樣擔(dān)心人工智能會(huì)給人類(lèi)帶來(lái)威脅。
值得一提的是,日前由26名業(yè)內(nèi)AI專(zhuān)家和公共政策研究員聯(lián)合發(fā)布的報(bào)告則認(rèn)為,人類(lèi)目前還沒(méi)有對(duì)AI技術(shù)可能帶來(lái)的破壞性做好充足的準(zhǔn)備。報(bào)告中指出,快速發(fā)展的人工智能被惡意利用的風(fēng)險(xiǎn)呈上升趨勢(shì),一旦遭黑客攻擊,或釀成無(wú)人駕駛的車(chē)禍,商業(yè)無(wú)人機(jī)也可能變成有針對(duì)性的武器。
“我們都同意,人工智能可以有很多積極的應(yīng)用,但現(xiàn)階段圍繞惡意使用人工智能問(wèn)題的文獻(xiàn)則少之又少。”負(fù)責(zé)聯(lián)合撰寫(xiě)這份報(bào)告的牛津未來(lái)人類(lèi)研究所研究員邁爾斯-布倫達(dá)奇(Miles Brundage)最后說(shuō)道。