全球人工智能政策和法規(guī)是如何發(fā)展的
引言
作為一個(gè)概念和技術(shù),人工智能(AI)仍處于初期發(fā)展階段,但其發(fā)展速度超過預(yù)期。全球已有幾個(gè)國家宣布將AI作為國家技術(shù)戰(zhàn)略的組成部分,還有幾個(gè)國家已經(jīng)開始了公眾咨詢過程。盡管如此,對(duì)AI的監(jiān)管并沒有跟上AI的發(fā)展步伐--有一些監(jiān)管機(jī)構(gòu)采取事后處理的方式,確保技術(shù)中立的方法,并制定倫理、隱私和安全準(zhǔn)則。AI的發(fā)展將顛覆現(xiàn)有的傳統(tǒng)商業(yè)模式,創(chuàng)造新的角色和機(jī)會(huì)。此外,政府和決策者將需要修改現(xiàn)有的政策和監(jiān)管框架來支持無縫整合和采用AI。
本報(bào)告包括歐盟、日本、美國、英國和新加坡最初采用的AI監(jiān)管方法。
Ovum觀點(diǎn)
監(jiān)管機(jī)構(gòu)目前采取的是事后處理(而非事前處理)方法: AI仍處于早期開發(fā)和采用階段。由于并不清楚AI將如何顛覆現(xiàn)有商業(yè)模式,全球監(jiān)管機(jī)構(gòu)和政府選擇發(fā)布技術(shù)中立的指導(dǎo)方針。隨著技術(shù)的發(fā)展,它能夠支持更大的靈活性。由于決策者目前更傾向于采用事后處理方法,預(yù)計(jì)將有更多行業(yè)特定和成熟的框架隨著時(shí)間的推移而發(fā)展,從而為這些指導(dǎo)方針提供補(bǔ)充。
發(fā)布的指導(dǎo)方針主要側(cè)重于保護(hù)基本權(quán)利: 雖然幾個(gè)國家的政府正在采取措施推出AI監(jiān)管框架,但迄今為止發(fā)布的大多數(shù)臨時(shí)指導(dǎo)方針都側(cè)重于保護(hù)基本權(quán)利,比如倫理、隱私和安全。為了推出有效的框架,AI價(jià)值鏈上的決策者和利益相關(guān)方應(yīng)該協(xié)同工作。最終目標(biāo)應(yīng)該是制定涉及AI各個(gè)方面的政策和法規(guī)。
AI將創(chuàng)造新的機(jī)會(huì),政府應(yīng)該做好抓住這些機(jī)會(huì)的準(zhǔn)備: AI在各個(gè)行業(yè)擁有廣泛的應(yīng)用場景,而且正在用新方法顛覆現(xiàn)有的商業(yè)模式。盡管有些人認(rèn)為這是一種威脅,但如果AI得到采納,就可以在各行業(yè)和價(jià)值鏈上創(chuàng)造新的機(jī)會(huì),包括新的技術(shù)和管理角色。為確保抓住這些機(jī)會(huì),各國政府應(yīng)撥出資金提高勞動(dòng)力和公民的技能。此外,政府可以設(shè)立AI委員會(huì),就采用AI所帶來的機(jī)會(huì)向各自的政府部門提供建議,幫助它們制定路線圖來協(xié)調(diào)政府做法和重新培訓(xùn)勞動(dòng)力。
為了接受AI,政府將需要修改現(xiàn)有法規(guī): 盡管政府仍在努力發(fā)布有關(guān)AI的監(jiān)管政策和指導(dǎo)方針,一些保護(hù)消費(fèi)者利益和競爭的法規(guī)已經(jīng)出臺(tái)。為了確保AI能夠順利融入各個(gè)行業(yè),監(jiān)管機(jī)構(gòu)需要重新審視和修訂一些現(xiàn)有的(在某些情況下是過時(shí)的)法規(guī),尤其是在AI應(yīng)用與現(xiàn)有政策存在沖突的情況下,比如數(shù)據(jù)保護(hù)法、過時(shí)的用戶同意方法、許可協(xié)議以及特定行業(yè)的法律。
AI監(jiān)管挑戰(zhàn)及Ovum觀點(diǎn)
如圖1所示,Ovum確定了AI監(jiān)管的七大挑戰(zhàn)。
來源:Ovum
安全
安全是所有政府在批準(zhǔn)部署AU、以及任何直接或間接威脅生命或財(cái)產(chǎn)、或造成經(jīng)濟(jì)或財(cái)政損失的機(jī)器或技術(shù)時(shí)考慮的最基本特性。AI的威脅指數(shù)更高,因?yàn)樗哂歇?dú)立行動(dòng)的能力,而且?guī)缀醪皇苋祟惛缮妗?duì)AI軟件實(shí)施安全標(biāo)準(zhǔn)與對(duì)AI本體實(shí)施安全標(biāo)準(zhǔn)同樣重要。決策者需要特別關(guān)注某些領(lǐng)域的安全標(biāo)準(zhǔn)—在這些領(lǐng)域, AI部署將直接或間接對(duì)生命或財(cái)產(chǎn)構(gòu)成更大威脅,比如航空、交通、采礦、物流和國防。在不久的將來,政府很有可能設(shè)立一個(gè)安全委員會(huì)或機(jī)構(gòu),并要求企業(yè)在部署AI的時(shí)候就安全問題獲得這些授權(quán)實(shí)體的批準(zhǔn)。
隱私
AI的決策基于基礎(chǔ)數(shù)據(jù)及其算法,它們會(huì)隨著時(shí)間的推移和經(jīng)驗(yàn)的累積不斷進(jìn)化。數(shù)據(jù)量越大,AI就越容易形成有意義的模式并模仿人類行為。然而,獲取有用的數(shù)據(jù)在世界各地引發(fā)了對(duì)隱私的擔(dān)憂,大多數(shù)國家已經(jīng)出臺(tái)了數(shù)據(jù)保護(hù)法律,比如如《通用數(shù)據(jù)保護(hù)條例》。此外,數(shù)據(jù)保護(hù)法中的規(guī)定要求數(shù)據(jù)控制器和數(shù)據(jù)處理器披露數(shù)據(jù)收集的目的及其使用情況,這將是一個(gè)巨大的挑戰(zhàn)--因?yàn)樵趯?shù)據(jù)提供給AI應(yīng)用時(shí)無法明確界定這一點(diǎn)。AI的逐步普及最終將迫使政府和決策者重新審視數(shù)據(jù)保護(hù)措施,對(duì)現(xiàn)有的數(shù)據(jù)保護(hù)法進(jìn)行修訂,以便在保護(hù)用戶隱私和數(shù)據(jù)收集之間取得平衡。
可控性
目前AI的發(fā)展和部署仍處于初級(jí)階段。雖然有一些AI系統(tǒng)完全自主,但大多數(shù)仍然需要人力監(jiān)督和控制。隨著時(shí)間的推移和技術(shù)的進(jìn)步,人類的監(jiān)督和干預(yù)將會(huì)減少,從而為更多完全自主的AI應(yīng)用鋪平道路。然而,系統(tǒng)失敗歸咎于外部因素(比如接觸陌生場景、安全漏洞、組件和傳感器損壞)或內(nèi)部因素(軟件故障和低效訓(xùn)練的系統(tǒng)等)會(huì)導(dǎo)致更大的破壞性, 尤其是在涉及關(guān)鍵決策的行業(yè),如航空、汽車、國防和醫(yī)療行業(yè)。決策者應(yīng)該在AI應(yīng)用中強(qiáng)制執(zhí)行可控性代碼,使人類能夠在不確定時(shí)期控制系統(tǒng)。此外,當(dāng)AI系統(tǒng)偏離了應(yīng)該執(zhí)行的預(yù)期職責(zé),或者識(shí)別出某項(xiàng)任務(wù)超出了限度,這種可控性可推動(dòng)人工干預(yù)。同時(shí),努力控制訓(xùn)練AI系統(tǒng)的輸入數(shù)據(jù)有助于開發(fā)一個(gè)值得信賴的系統(tǒng)。
倫理
倫理道德在制定AI監(jiān)管政策方面扮演著最關(guān)鍵的角色,世界各地的一些政府已經(jīng)將倫理準(zhǔn)則納入了國家戰(zhàn)略。由于AI系統(tǒng)的開發(fā)和訓(xùn)練是一個(gè)持續(xù)的過程,包括開發(fā)算法和輸入數(shù)據(jù),以及監(jiān)控和更新系統(tǒng),因此決策者在確定倫理準(zhǔn)則時(shí)應(yīng)該格外謹(jǐn)慎。指導(dǎo)方針應(yīng)有助于避免不公平的偏倚,防止輸入不合適的數(shù)據(jù)來訓(xùn)練AI系統(tǒng),并保持對(duì)隱私的尊重—通過保密的綱領(lǐng)開發(fā)AI系統(tǒng),以便構(gòu)建AI應(yīng)用的基礎(chǔ)。
開發(fā)可信、穩(wěn)健的AI系統(tǒng)涉及多方面的專業(yè)人員,比如開發(fā)人員、統(tǒng)計(jì)人員、學(xué)者和數(shù)據(jù)清理人員。決策者和政府應(yīng)該攜手合作,投資和培訓(xùn)專業(yè)人士,以便將最佳倫理實(shí)踐納入AI系統(tǒng)。可以說,這對(duì)政府來說并不陌生,因?yàn)樵趪覒?zhàn)略的指引下許多政府已經(jīng)撥出了相當(dāng)多的資金來培訓(xùn)公民提高數(shù)字技能。此外,在未來,預(yù)計(jì)AI公司將選擇引入一個(gè)新的AI倫理官角色,甚至是一個(gè)AI倫理委員會(huì),以便監(jiān)控和保護(hù)被納入AI系統(tǒng)的倫理價(jià)值觀(類似于數(shù)據(jù)保護(hù)官的作用)。