賦予人工智能決策權(quán)的前提是什么?
又回到了那個(gè)老生常談的問題:長(zhǎng)此以往人工智能到底會(huì)不會(huì)威脅人類?對(duì)于這個(gè)話題,已經(jīng)有不同領(lǐng)域的企業(yè)家、科學(xué)家進(jìn)行了預(yù)測(cè)、分析,反對(duì)AI和支持AI的兩種不同的勢(shì)力此起彼伏。不過,從人類社會(huì)及科學(xué)技術(shù)的整體發(fā)展趨勢(shì)來看,發(fā)展人工智能仍然是當(dāng)前各界比較認(rèn)同的觀點(diǎn)。
接下來我們來看,人類當(dāng)前創(chuàng)造的人工智能屬于處于什么階段。從近兩年橫掃人類頂尖棋手的Alpha Go,工廠里的機(jī)械臂機(jī)器人、物流中心的分揀機(jī)器人、再到普通家庭里的掃地機(jī)器人、智能保姆等等。我們發(fā)現(xiàn),迄今為止人類創(chuàng)造的所謂的“人工智能”,只是在執(zhí)行人類發(fā)出的程序命令的機(jī)器。已經(jīng)有專家犀利的指出,“沒有決策權(quán)的人工智能就不是真正意義上的人工智能”。
讓人工智能擁有實(shí)際決策權(quán),在現(xiàn)在看來是一件非常危險(xiǎn)的事。因?yàn)檫@就意味著,人類隨時(shí)有可能失去對(duì)人工智能的控制。甚至是引發(fā)電影《(I, Robot》中所描述的末日慘劇。不過,我們既然決定要發(fā)展真正的人工智能,就要賦予AI一些實(shí)際的決策權(quán)。并應(yīng)該做出人類對(duì)人工智能失去控制的預(yù)案。
關(guān)于AI決策權(quán)的問題,我們要認(rèn)識(shí)到某種情況下機(jī)器學(xué)習(xí)必須要不受影響,人工智能受到人類過多干預(yù)就沒有辦法展開正常工作。例如,自動(dòng)駕駛汽車如果需要作出轉(zhuǎn)彎或減速動(dòng)作,這時(shí)候還必須要向人類駕駛員詢問命令信號(hào),那就不能完全稱之為自動(dòng)駕駛汽車,說不定還要引發(fā)交通事故。
人類每天都在做著許多無意識(shí)卻重要的決定。Microsoft To-Do的數(shù)據(jù)表明,我們每天要做出35000次決定。康奈爾大學(xué)研究表明,我們每天都要做出超過200個(gè)關(guān)于要吃什么的決定。同樣的原理,我們要想讓人工智能自動(dòng)準(zhǔn)確處理很多繁雜的任務(wù),就要賦予機(jī)器決定自己下一步處理任務(wù)的決策權(quán)。
只有一定程度上賦予了人工智能決策權(quán),才能讓它為我們處理一些紛繁復(fù)雜的任務(wù)。實(shí)際上,人工智能已經(jīng)在我們?nèi)粘I钪谐洚?dāng)了一些助手的角色,這些用戶場(chǎng)景人工智能或多或少的都擁有自主的決策權(quán)。
在新零售領(lǐng)域,人工智能起到連接消費(fèi)者,改善購物體驗(yàn)的作用。通過圖像識(shí)別、機(jī)器學(xué)習(xí)、自然語言處理可以使智能服務(wù)機(jī)器人輕松與顧客交流、提供引導(dǎo),并預(yù)測(cè)訂單;基于深度學(xué)習(xí)技術(shù)的無人機(jī)則擁有較大決策權(quán),可以規(guī)避風(fēng)險(xiǎn)自主選擇路線快遞產(chǎn)品。
在醫(yī)療領(lǐng)域,擁有決策權(quán)的人工智能可以實(shí)現(xiàn)更快速、準(zhǔn)確的診斷和治療。機(jī)器學(xué)習(xí)可以分析患者的健康數(shù)據(jù),并與之前醫(yī)療數(shù)據(jù)進(jìn)行比較,提供健康建議提前預(yù)警疾??;儀器設(shè)備可自動(dòng)診斷患者健康體征指標(biāo),而無需人力輔助。
在制造領(lǐng)域,借助人工智能可實(shí)現(xiàn)更快的周轉(zhuǎn)周期和迭代次數(shù),提供生產(chǎn)效率;項(xiàng)目經(jīng)理可以基于人工智能高級(jí)分析,有效提高審查流程。還可以協(xié)同工廠生產(chǎn)線進(jìn)行高效生產(chǎn)作業(yè)。
在教育領(lǐng)域,借助人工智能可以解決教育資源分布不均的問題,不斷優(yōu)化教育制度提高人才與企業(yè)的匹配度。
除此以外,人工智能還在農(nóng)業(yè)、電網(wǎng)、交通等領(lǐng)域有極大的應(yīng)用前景。人工智能在這些生產(chǎn)、生活領(lǐng)域帶來的都是效率的顯著提升。因而,沒有決策權(quán)的半人工智能是無法勝任上述應(yīng)用場(chǎng)景的。
不過,諸如斯蒂芬·霍金、埃隆·馬斯克、比爾·蓋茨等各界人士所發(fā)出的理性警告,我們卻是無法忽視的。因而,學(xué)術(shù)界和科技領(lǐng)域都主張為人工智能在安全與危險(xiǎn)之間畫一條界限。而畫出這樣的界限的方法,就是橫跨人類社會(huì)與機(jī)器領(lǐng)域的立法行動(dòng)。在這里我們猜測(cè)這條主張被提出的大背景為,今年一名名叫Sophia的人性機(jī)器人突然扔出要?dú)缛祟惖谋ㄐ匝哉摗?/p>
因而,我們?cè)谧屢慌_(tái)執(zhí)行特定任務(wù)的機(jī)器擁有自我感知能力和決策力之前,就先要讓他們知道是什么行為合法,什么行為違法。并要為這些機(jī)器設(shè)定違法處罰機(jī)制,讓他們意識(shí)到違法是有代價(jià)的違法??赡埽綍r(shí)候人工智能就需要學(xué)習(xí)熟知我們?nèi)祟惉F(xiàn)有的法律,要讓他們更像一個(gè)能準(zhǔn)確判斷是非的法官;或者是作為外科醫(yī)生的機(jī)器人,不至于因?yàn)槭д`導(dǎo)致病人死亡。這樣的話,我們才能將決策權(quán)放心的交給一個(gè)優(yōu)秀的人工智能,一個(gè)強(qiáng)大的人工智能。