人工智能技術(shù)發(fā)展的同時,防止人工智能負面影響的監(jiān)管措施也必不可少
今天上午,全球最高機器人領(lǐng)域盛會—2018世界機器人大會在北京亦創(chuàng)國際會展中心舉行,160余家海內(nèi)外知名企業(yè)展示前沿商用機器人成果,現(xiàn)場不少中國制造的機器人亮相。據(jù)介紹,2018年世界機器人大會將持續(xù)19日。
作為“人工智能”領(lǐng)域真正的集大成產(chǎn)業(yè),機器人在近幾年的發(fā)展有目共睹,“人機協(xié)作”之間的交互越來越便捷,在復雜、精密度高和高危險的工作場景中機器人的應用越來越廣泛。伴隨著不斷迭代升級的“人工智能”,不斷有人跳出來表示對未來人工智能是否會威脅人類生存表示擔憂,因為人工智能技術(shù)的巨大潛力,以及它可能給人類帶來的巨大影響,但科技在發(fā)展中必然會產(chǎn)生負面影響,所以在發(fā)展人工智能技術(shù)的同時,也要對人工智能技術(shù)采取一些監(jiān)管措施,以此來防止它的負面影響。這種觀點的代表是霍金和埃隆馬斯克,埃隆馬斯克還專門為此創(chuàng)建了“神經(jīng)織網(wǎng)”公司以應對這樣的危機。
面對這樣的人工智能監(jiān)管問題,記者在采訪完康力優(yōu)藍機器人公司CEO劉雪楠、影譜科技創(chuàng)始人兼CEO姬曉晨和會場多個資深人工智能專家,總結(jié)出以下幾點監(jiān)管策略。
第一,開源性原則。開源性原則要求人工智能技術(shù)公司開源系統(tǒng)源代碼,以便監(jiān)管部門及媒體查看代碼,防止損害公共利益的技術(shù)。但是這種監(jiān)管策略存在著與“知識產(chǎn)權(quán)”天然矛盾,損害開發(fā)者的利益,不利于行業(yè)健康發(fā)展。
第二,可解釋性原則。是指技術(shù)開發(fā)者需要能夠向終端用戶解釋他們的算法,或者只使用那些能夠解釋清楚決策機制的算法。歐盟的《通用數(shù)據(jù)保護條例》(GDPR)就是應用這類原則作為評估人工智能技術(shù)風險的一個主要指標。但是,隨著人工智能科技的發(fā)展,其算法復雜度越來越高,也就意味著它越難以解釋清楚。
最后,是建立類似于食品藥品監(jiān)督管理局這樣的人工智能監(jiān)管機構(gòu)。通過機構(gòu)建立對人工智能系統(tǒng)的統(tǒng)一管理。這種策略,簡單直接但存在著監(jiān)管對象繁多,無法有針對性的監(jiān)管。
針對這些原則,康力優(yōu)藍CEO劉雪楠告訴記者,當前的監(jiān)管必須在結(jié)合著三種原則的基礎(chǔ)上,建立一個標準通用的人工智能“準則”,政府和企業(yè)需要共同努力??盗?yōu)藍在業(yè)內(nèi)率先提出這樣的想法,通過建立中國商用機器人企業(yè)協(xié)會積極加入制定人工智能“準則”的行動中,從而保證“人工智能”正常發(fā)展,降低風險。