機器人已經(jīng)普遍的成功應(yīng)用在工業(yè)制造領(lǐng)域,商業(yè)領(lǐng)域甚至是醫(yī)療行業(yè),但你應(yīng)該還沒有聽說過機器人還可以應(yīng)用在政治林領(lǐng)域吧!今天小編就向你介紹一款機器人Nigel,它是采用了智能化的方式,給予他獨立的思維,為的就是能夠更好的了解用戶的想法,然后給用戶提供投票建議。
一項新的人工智能項目的創(chuàng)始人希望,有一天可以拯救民主。對于機器人接管政治,我們做好準(zhǔn)備了嗎?
“Siri,我應(yīng)該投給誰?”
“這是一個非常私人的決定。”
蘋果的“個人助理”Siri不做政治。對于任何聽起來有爭議的東西,它都有普通的、非承諾性的答案。事實上Siri的回答與一些政治家如出一轍。但下一代數(shù)字助手以人工智能(AI)的改進為動力,所以它們的回答可能就不那么保守了。
俄勒岡州波特蘭的一家公司開發(fā)了一種軟件,旨在為用戶生活的各個方面——包括投票提供建議。Nigel的創(chuàng)始人Mounir Shita說:“我們希望你能夠信任Nigel,我們希望Nigel知道你是誰,并且在日常生活中為你服務(wù)。Nigel試圖找出你的目標(biāo)是什么,現(xiàn)實中的你是怎樣的,通過結(jié)合這兩個方面的了解,以此來實現(xiàn)你的目標(biāo)。因此,可以說Nigel試圖不斷地推動你走向正確的方向。”
Kimera Systems公司的Shita聲稱已經(jīng)破解了“一般性能的人工智能”——獨立思考的秘密——這是過去60年來AI研究人員所忽視的一件事。
現(xiàn)階段大多數(shù)的AI都是學(xué)習(xí)如何執(zhí)行特定的任務(wù),Nigel卻不是這樣,它可以根據(jù)用戶行為自由編程,而無需監(jiān)控他們的電子設(shè)備。
Shita表示:“希望Nigel最終能學(xué)到足夠的知識,在您進行政治討論和選舉時能對您有所幫助。”
然而,Nigel在科技界卻受到了一定的懷疑。迄今為止,Nigel的成就還有限——Nigel已經(jīng)學(xué)會通過觀察用戶的行為,在電影院中不用用戶要求就把用戶的智能手機轉(zhuǎn)換為靜音模式。
但是,Shita確信他的算法在另一種AI上更占優(yōu)勢,那就是由更大的硅谷玩家開發(fā)的另一種AI技術(shù)——增強型數(shù)字助理,他已經(jīng)就Nigel在政治事業(yè)會遇到的潛在陷阱提出了法律意見。
他說:“對于Nigel,我們的目標(biāo)是到明年這個時候,Nigel能夠具備達到小學(xué)水平的讀寫能力。雖然Nigel還沒有達到參與政治的能力,但這是我們的目標(biāo)。”
AI已經(jīng)是政治世界的一部分——在選舉時候,AI被使用更復(fù)雜的算法來處理選票。研究團隊也在爭相研究一種能夠制止“假新聞”傳播的算法。Shita牧師認為這種算法有利于民主,會讓狡猾的政治家很難蒙蔽選民的眼睛。“因為AI可以處理大量的信息,因此想要給AI洗腦是非常困難的。AI可以告訴潛在的選民,政客所說的是謊言或者他們所說的話很難實現(xiàn)。”
但怎樣讓人類聽取機器人的建議呢?
越來越多地投票人支持“機器選舉政治家”,比如英國政治中最著名的Farag,以及他的朋友唐納德·特朗普(Donald Trump)。但人工智能Nigel如何如其競爭呢?
Shita解釋道,你要學(xué)會相信Nigel,比起你僅僅在電視上見到的政治領(lǐng)導(dǎo)人,Nigel更懂你的情緒。盡管機器人Nigel不一定會改變?nèi)裢镀钡慕Y(jié)果,但至少可以幫助英國的選民對Brexit做出更明智的決定。
Nigel的整個目的是弄清楚你是誰、你的意見是什么,然后采納他們。根據(jù)Nigel的算法,如果事情看起來不對勁,他可能會促使您改變觀點。“我舉個極端的例子,如果你是一個種族主義者,Nigel將成為種族主義者,如果你是一個左傾的自由主義者,Nigel將成為一個左傾的自由主義者。”Shita補充道,“每個人都有自己的Nigel,而Nigel的每一個目標(biāo)都在適應(yīng)你的觀點,這背后沒有政治陰謀。”
牛津大學(xué)全球化與發(fā)展教授Ian Goldin也認為,AI可以在揭開政治動因和謊言中發(fā)揮作用。但他擔(dān)心政治家還沒有意識到,對社會的未來或者其自身,工作意味著什么。
在他的書《發(fā)現(xiàn)時代:探索新文藝復(fù)興的風(fēng)險和獎勵》中,Ian Goldin和共同作者Chris Kutarna想要在由機器人控制的人類世界觀以及硅谷精英的科技夢想之間尋求一個平衡。
Goldin告訴BBC新聞:“我認為技術(shù)所造成的威脅正在與日俱增,在某些方面,人們會為此感到擔(dān)憂。但政客肯定不會談?wù)撨@個問題。”
Goldin認為,他們不應(yīng)該將機器學(xué)習(xí)當(dāng)作一些遙遠的科幻小說,而應(yīng)該對這些內(nèi)容“加以整理”,看看它是如何改變政治和社會格局的。他指出,在牛津馬丁技術(shù)與就業(yè)計劃的一份研究報告中認為,唐納德·特朗普贏得了美國大選卻虧欠了選民,因為那些選民因為自動化而失去了工作。
在機器學(xué)習(xí)世界中,創(chuàng)新日新月異,所以變革的速度有在加快。這意味著兩件事情,首先,人們會被更快地遺忘,所以不平等現(xiàn)象加劇。其次是你必須更快地更新光纖、基礎(chǔ)設(shè)施、能源系統(tǒng)、住房、流動性和靈活性。
特斯拉電動汽車的創(chuàng)始人Elon Musk已經(jīng)警告說,對人類來說,無管制的AI造成的災(zāi)難性后果,最多是誤導(dǎo)。
然而,對一個機器完成所有工作的世界,Shita卻似乎并不是很擔(dān)憂。他解釋道:“我并不希望人們因為無事可做就坐在沙發(fā)上吃薯片,而是希望人們從體力勞動中解放出來,去做感興趣的事情。”
但Ian Goldin對AI增強的未來不太樂觀。他說,根據(jù)最近對美國受過高等教育的白人工薪階層的研究表明,那些因為機器完成所有工作而空閑的人,更有可能會酗酒或者自殺,而不是追求健康積極的生活。