如何防范人工智能的技術性風險
信息科技的飛速發(fā)展和廣泛應用,孕育了“智能社會”這一特定的技術與社會建構及社會文化形態(tài)。一種新型的人工智能驅動的經濟和社會模式正在由無處不在的數(shù)據(jù)和算法催生而出,同時也帶來了一些法律和倫理問題。互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等技術的應用,帶來的隱私保護、虛假信息、算法歧視、網(wǎng)絡安全等問題,引起社會廣泛關注。
智能社會面臨新的法律和倫理問題
一是人工智能的去主體性可能導致價值屬性的消解。人被視為擁有不可替代價值的主體,任何被納入該群體的人,只需在法律規(guī)定主體范疇內,均可獲得當然的主體權利。但人工智能由于無法納入某一確定共同體而獲得統(tǒng)一規(guī)則化,因而也導致其主體性無法確定。隨著技術迭代,由于智能本身缺乏主體性基礎,使得其無法作為任何法律規(guī)則調整的對象,導致人工智能的道德責任和法律責任基礎亦無從確定。同時,人類盡管尚未被人工智能所取代,但隨著人工智能介入的加深,人類將越發(fā)深陷于技術所編織的羅網(wǎng)之中。技術空間裹挾下的人類則可能產生異化,從而導致個體在原有主體價值屬性上的消解。
二是人工智能可能侵蝕原有人類社會基本結構。羅爾斯提出的社會基本正義結構依托于一個穩(wěn)定的互動結構,即理想化的市場需要保持足夠自由來保證參與者的競爭能力,使市場自生自發(fā)秩序持續(xù)演進的需要得到滿足。但如果是高度中心化的人工智能體系,則將主要借助于數(shù)據(jù)計算中心來支配所有接入要素,數(shù)據(jù)主義或許將構成“數(shù)據(jù)巨型機”的意識形態(tài)。盡管社會運行效率得到提升,但是“數(shù)據(jù)巨型機”一旦缺乏限制和管控,就可能造成人與數(shù)據(jù)間關系破裂,進而可能導致個人自由的隱形喪失,“楚門效應”也將由此產生。
三是人工智能可能帶來人類社會基本價值觀念與公平正義觀的轉變。倫理假定的基本價值是現(xiàn)代法律正當性的基礎,而隨著人工智能介入程度的加深,個體可計算的屬性愈加明顯,原有的公平正義基本價值將開始從抽象的人格向具體的數(shù)字化人格轉化,人類原有的社會價值基礎通過計算滲透,使得評價的權威由抽象的道德權威轉化為具體的人工智能算法,這將動搖現(xiàn)有人類社會法律基礎。由于數(shù)據(jù)交換可能變成新的價值創(chuàng)造源,因此個人數(shù)據(jù)極易遭到主動吸收利用,個人數(shù)據(jù)控制和管理的弱化也導致社會生活中不斷出現(xiàn)新的倫理沖突與道德悖論,這些都構成了對現(xiàn)行主流社會道德價值體系的沖擊。
由于人工智能愈發(fā)強大的計算能力和對現(xiàn)有社會結構及價值體系的不斷侵蝕,可能導致對個體尊嚴和形象的入侵、算法歧視上的侵害和自身主體價值的消解。如何規(guī)范人工智能、資本與權力的合作,重塑公平正義的社會結構和技術結構,成為亟待解決的問題。因此,應基于科技倫理的調適和嵌入,對傳統(tǒng)法律制度進行改造,并且從以社會監(jiān)管為重要內容的政策體系構建入手,建立以社會理性和科學理性為基本內涵的風險控制機制,從而防范人工智能的技術性風險。
確立倫理標準 加強法律規(guī)制
法律由于天然內含正義的基因,并通過權威性的制度體系設計反映道德的內在要求,在發(fā)揮其自身的價值功用實現(xiàn)人們對公平正義期許的同時,將人的倫理訴求從任意和神秘的領域轉化為可以把握和預期的理性王國。技術理性中蘊含的正義要素與其具有一致性,這種價值理性內涵為構建人與技術間和諧有序的圖景提供了基礎。但是,技術內部無法解決現(xiàn)有技術邏輯與基于理念的正義邏輯間的錯位。為此,有必要采取預防性措施應對由人工智能引發(fā)的負面效應,并通過風險控制機制和因應性制度對其加以引導,以明確人工智能的主體屬性,解決其與現(xiàn)行法律間的根本性沖突,實現(xiàn)從倫理規(guī)范、法律規(guī)則和政策規(guī)定等維度構建制度性、法治化的社會治理體系。
一是確立人工智能倫理道德標準,嵌入人類道德規(guī)范體系。道德規(guī)范作為特定領域針對特定目的的內化價值追求,能夠使人工智能系統(tǒng)受到諸多價值標準和規(guī)范的約束,在面臨道德過載風險時受到在價值理念上以人為中心的法律的制約。因此,應明確需要嵌入的規(guī)范和價值并加以協(xié)調,避免道德倫理的失范和法律的失序。為此,應通過建立完整的道德規(guī)則和法律規(guī)范,促進技術倫理由隱性向顯性轉化,主要手段包括構建和編寫人工智能與人類活動相協(xié)調所適用的基本規(guī)則。其原則可以概括為:1.人類利益原則,即保障人的權利和自由,強化隱私保護,優(yōu)化人類福祉和自然環(huán)境,尋求科技進步與社會、自然和諧發(fā)展的最大公約數(shù);2.責任原則,將人工智能的應用納入監(jiān)管范圍,通過明確主體責任,識別、預防和減輕負面效應;3.比例原則,設定合理閾值,既要防止高于閾值上限時的道德過載,亦要對低于閾值時的道德負擔不足以及閾值過低時的法律規(guī)制尋求合理的比例原則;4.正義原則,將社會的倫理原則嵌入人工智能系統(tǒng),確保算法的透明以避免算法歧視,保障技術權益在社會范圍內的公平合理分配。在人工智能價值權重設計階段,應優(yōu)先考慮利益相關群體共同分享的價值體系,技術上要滿足不同空間和時間下價值和規(guī)范發(fā)生變化的可能性,保證人工智能設計的倫理價值與人類的規(guī)范相統(tǒng)一。
二是加強對人工智能的法律規(guī)制。在法律領域人工智能不具有主體資格的前提下,通過圍繞人工智能以機器為中心的特性進行制度設計,將正義作為衡量算法公平公正的標尺,從構建人工智能法律規(guī)則的維度實現(xiàn)算法的透明性、可解釋性,使資源優(yōu)化配置的功能與價值觀負載的制度相匹配。就法律規(guī)則整體建構而言,我們可以在弱化復雜倫理困境的前提下構建歸責原則,系統(tǒng)考量責任主體確定、多主體責任分擔比例、因果關系認定等諸多要素,在立法、司法裁判和法律效果評價環(huán)節(jié)嵌入倫理性考量因素,進而將具體的道德考量因素轉化為可以實施的法律原則乃至法律規(guī)則。
三是強化制度創(chuàng)新與政策指引。人工智能在應用于社會治理、提升公共服務有效性的同時,也可能導致相關管理部門與社會間產生“技術鴻溝”。由于算法歧視所導致的非理性決策,以及不同主體對人工智能發(fā)展不同程度上不相稱的告知、分析、審查和監(jiān)管能力,使得技術的高速發(fā)展容易產生溢出效應,導致社會和公民利益受損。為此,需要加強不同環(huán)節(jié)中不同主體間的深度合作,建立科學評估與倫理矯正機制。我們應從構建配套管理機制等方面入手,對社會治理理念、技術能力、行動流程等進行治理理論和制度的創(chuàng)新,作出整體性、全局性的戰(zhàn)略部署,制定加強產業(yè)促進與監(jiān)管的政策法律,將技術創(chuàng)新上升為“規(guī)劃理性”的法價值范疇,逐步強化價值發(fā)現(xiàn)中人的能動性干預和控制。
隨著人工智能的快速發(fā)展,一些道德悖論、倫理矛盾和司法困境不斷浮現(xiàn),對現(xiàn)有倫理標準和法律體系帶來挑戰(zhàn)??萍及l(fā)展與社會進步在追求效率的同時,應兼顧公平與正義,通過立法等方法,明晰人工智能的相關法律責任制度、明確數(shù)據(jù)信息保護與隱私權保護、強化涉及人工智能發(fā)展的知識產權保護,建立起全流程的立法監(jiān)管體系。只有重視對控制風險功能的法治化,輔以倫理為先導的社會規(guī)范調控體系,以及通過限制機制、禁止機制以及懲戒機制對人工智能的研發(fā)、使用和傳播加以規(guī)制,才能真正使科學技術的智慧之光與倫理的人性之光、法律制度的理性之光共同在智能時代交相輝映。