在人工智能發(fā)展中人類(lèi)將扮演什么角色
(文章來(lái)源:齊魯壹點(diǎn))
AI剛剛興起的時(shí)候,大多數(shù)人們對(duì)這個(gè)詞匯還是感到很陌生,但隨著各類(lèi)AI機(jī)器人不斷出現(xiàn),人工智能聲名大噪,成為了各個(gè)國(guó)家未來(lái)的發(fā)展戰(zhàn)略??茖W(xué)家、工程師看到了一個(gè)嶄新領(lǐng)域的興起,商人們看到了技術(shù)帶來(lái)源源不斷的財(cái)富,而普通人則不得不面對(duì)“機(jī)器人竊取大量工作”的局面。由此“人工智能是人類(lèi)最大的生存威脅”、“我們應(yīng)該抵制人工智能”等言論甚囂塵上!人類(lèi)與人工智能究竟能否共贏共存成為了一個(gè)既敏感又現(xiàn)實(shí)的問(wèn)題。
谷歌首席決策科學(xué)家CassieKozyrkov提出了:“人類(lèi)可以彌補(bǔ)人工智能的缺點(diǎn)”。過(guò)去五年,CassieKozyrkov在Google擔(dān)任過(guò)很多技術(shù)職務(wù),但如今她要正式面對(duì)“首席決策科學(xué)家”這個(gè)有點(diǎn)奇怪的職位了。簡(jiǎn)單來(lái)講,決策科學(xué)就是數(shù)據(jù)和行為科學(xué)的交叉點(diǎn),涉及統(tǒng)計(jì)學(xué)、機(jī)器學(xué)習(xí)、心理學(xué)、經(jīng)濟(jì)學(xué)等學(xué)科。Kozyrkov的主要職責(zé)就是幫助Google推動(dòng)更積極的AI議程,至少也要讓人們相信AI并不像頭條新聞所說(shuō)的那么糟糕。
面對(duì)人工智能,人類(lèi)到底在焦慮些什么?“機(jī)器人正在竊取我們的工作,”“人工智能是人類(lèi)最大的生存威脅”,類(lèi)似的宣言已經(jīng)存在了很長(zhǎng)一段時(shí)間,但在過(guò)去幾年中,這種擔(dān)憂(yōu)變得更加明顯。對(duì)話(huà)式AI助手廣泛存在于現(xiàn)實(shí)生活中,汽車(chē)、卡車(chē)幾乎能夠自動(dòng)駕駛,機(jī)器可以輕而易舉的在電腦游戲中擊敗人類(lèi),甚至藝術(shù)創(chuàng)意的工作也受到了人工智能的沖擊。我們不斷被告知,無(wú)聊和重復(fù)的工作可能會(huì)成為過(guò)去。
身處自動(dòng)化世界,人們對(duì)未來(lái)感到焦慮和困惑是可以理解的。但是,根據(jù)Kozyrkov的說(shuō)法,人工智能僅僅是自人類(lèi)誕生以來(lái)一直努力奮斗的延伸。
在倫敦AI峰會(huì)上Kozyrkov發(fā)表講話(huà)說(shuō):“人類(lèi)的故事是自動(dòng)化的故事。人類(lèi)發(fā)展的歷程就是關(guān)于如何將事情做得更好,從舊石器時(shí)代開(kāi)始,原始人拿起一塊石頭敲擊另一塊巖石,就是因?yàn)榭梢愿焱瓿晒ぞ?,然后利用工具進(jìn)行更好的創(chuàng)造。從古至今,人類(lèi)都是工具制造的種族,我們反對(duì)一味的埋頭苦干”。
人工智能是危險(xiǎn)的,因?yàn)樗鼙热祟?lèi)做得更好。這種的潛在威脅對(duì)Kozyrkov來(lái)說(shuō)是站不住腳的,她認(rèn)為所有的工具都比人類(lèi)徒手來(lái)做強(qiáng)得多。理發(fā)師用剪刀剪頭發(fā),就是因?yàn)橛檬肿ゲ荒敲蠢硐?。古騰堡的印刷機(jī)生產(chǎn)文本的規(guī)模可以達(dá)到了人類(lèi)無(wú)法復(fù)制的規(guī)模。
使用工具比人類(lèi)徒手做效果更好—這就是工具的意義。如果沒(méi)有工具你可以做得更好,為什么要使用這個(gè)工具?如果你擔(dān)心計(jì)算機(jī)在認(rèn)知上比你更好,那么筆和紙?jiān)谟洃洉r(shí)也比人類(lèi)更長(zhǎng)久;水桶在拿水的時(shí)候比人類(lèi)得儲(chǔ)存量更大,計(jì)算器的六位數(shù)計(jì)算遠(yuǎn)勝于大部分人類(lèi)計(jì)算。我們有理由相信,未來(lái)人工智能在某些方面也會(huì)變得更好。
當(dāng)然,許多人對(duì)人工智能和自動(dòng)化的潛在恐懼并不是說(shuō)它會(huì)比人類(lèi)做得更好。而是害怕政府、企業(yè)和任何惡意實(shí)體可以肆無(wú)忌憚地追蹤和微觀管理人類(lèi)的一舉一動(dòng)——幾乎不費(fèi)吹灰之力就可以實(shí)現(xiàn)秘密的宏偉愿景,從而給人類(lèi)蒙上反烏托邦的陰影。
其他問(wèn)題涉及像算法偏見(jiàn),缺乏足夠的監(jiān)督以及世界末日情景等因素有關(guān):如果某件事急劇地——無(wú)意地——出錯(cuò)了怎么辦?人工智能該如何真正減少人類(lèi)的偏見(jiàn)?研究人員已經(jīng)證明了面部識(shí)別系統(tǒng)的內(nèi)在偏見(jiàn),像亞馬遜的Rekognition。最近,民主黨總統(tǒng)候選人參議員伊麗莎白·沃倫呼吁聯(lián)邦機(jī)構(gòu)解決有關(guān)算法偏差的問(wèn)題,例如美聯(lián)儲(chǔ)的放貸歧視問(wèn)題 。其實(shí),人工智能在現(xiàn)實(shí)生活也能起到減少人類(lèi)現(xiàn)有偏見(jiàn)的作用。
在很多人工智能領(lǐng)域,AI如何擴(kuò)散系統(tǒng)歧視的擔(dān)憂(yōu)是首要議程。微軟敦促美國(guó)政府監(jiān)管面部識(shí)別系統(tǒng),研究人員致力于在不影響預(yù)測(cè)結(jié)果準(zhǔn)確性的情況下減少人工智能中的偏見(jiàn)。
當(dāng)然,在現(xiàn)實(shí)世界中,備受好評(píng)的同行評(píng)審期刊或教科書(shū)應(yīng)該有足夠的監(jiān)督來(lái)對(duì)抗任何公然的偏見(jiàn)。如果作家、原始數(shù)據(jù)、鼓勵(lì)學(xué)生閱讀的教科書(shū)的老師都有相同的偏見(jiàn)呢?人們要花費(fèi)很長(zhǎng)的時(shí)間才能發(fā)現(xiàn)一些陷阱,但到那時(shí)阻止任何不良影響都為時(shí)已晚。因此,Kozyrkov認(rèn)為“視角的多樣性”對(duì)于確保最小的偏見(jiàn)是必不可少的。
研究人員越是關(guān)注自己的數(shù)據(jù),思考用這些例子來(lái)表達(dá)自己的結(jié)論,就越有可能抓住那些潛在的壞案例。在人工智能中,數(shù)據(jù)的多樣性是必須的,而且需要從不同的角度來(lái)看待和思考使用這些例子會(huì)對(duì)世界產(chǎn)生怎樣的影響。