www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀] 人和諧相處的社會(huì)。社會(huì)是需要規(guī)則的,猶如在人類社會(huì)中,法律對(duì)人類行為的約束以及既定的道德規(guī)范對(duì)人類行為的指引,在機(jī)器人的世界里,也有著“機(jī)器人三定律”等“法規(guī)

人和諧相處的社會(huì)。社會(huì)是需要規(guī)則的,猶如在人類社會(huì)中,法律對(duì)人類行為的約束以及既定的道德規(guī)范對(duì)人類行為的指引,在機(jī)器人的世界里,也有著“機(jī)器人三定律”等“法規(guī)”,有了這些法則、定律,科幻小說家阿西莫夫筆下的機(jī)器人不再是“欺師滅祖”“犯上作亂”的反面角色,而是人類忠實(shí)的奴仆和朋友。那個(gè)時(shí)代,有不會(huì)造成擁堵的無人駕駛汽車、在家可享受的未來醫(yī)療、與人類實(shí)時(shí)互動(dòng)的智能家居、沉浸式體驗(yàn)的歷史事件甚至是與人工智能的愛情……

但是,自人工智能誕生以來,“人類會(huì)不會(huì)被毀滅”“如果人類放手不管,不考慮道德倫理問題,計(jì)算機(jī)系統(tǒng)的演化會(huì)不會(huì)讓我們懊悔不已”等這樣的問題總是讓我們更加審慎地對(duì)待人工智能的發(fā)展。猶如電影《我,機(jī)器人》中的場(chǎng)景——機(jī)器人竟然具備了自我進(jìn)化的能力,他們對(duì)“三大定律”有了自己的理解,他們隨時(shí)會(huì)轉(zhuǎn)化成整個(gè)人類的“機(jī)械公敵”。由此,一場(chǎng)制造者和被制造者之間的戰(zhàn)爭(zhēng)拉開序幕。

對(duì)于人工智能是否會(huì)毀滅人類,有人認(rèn)為重要的不在技術(shù),而是規(guī)則。在人工智能這股不可逆的潮流中,前有阿西莫夫著名的機(jī)器人學(xué)三大定律,后有國際人工智能界正在日益重視的倫理與法律問題,如IEEE全球人工智能與倫理倡議、阿西洛馬人工智能23條倫理原則相繼出現(xiàn),顯而易見,人類渴望著科技的進(jìn)步,但又恐懼科技的進(jìn)步。在我們想象并踐行著人工智能如何改善生活的時(shí)候,也在考慮人工智能如何面對(duì)倫理道德問題。

AI的決策一定準(zhǔn)確嗎?

它的數(shù)據(jù)或帶偏見性

一輛正在行駛的無人駕駛汽車,因?yàn)槟承┰驅(qū)е聼o法剎車,行駛前方是五名無辜路人,假如行駛方向不變,五名路人將產(chǎn)生生命危險(xiǎn)。同時(shí),路邊有一片空地,有一名路人正在散步,如果汽車改道,那么只有這一名路人會(huì)面臨生命危險(xiǎn),這時(shí),無人駕駛汽車的人工智能系統(tǒng)該做出如何選擇?

還是這輛正在行駛的無人駕駛汽車,由于數(shù)據(jù)信息高度互通,它通過人工智能系統(tǒng)得知兩個(gè)方向的六名路人身份(比如:罪犯、教師、醫(yī)生、工程師等)或者他們之間被記錄下的沖突。此時(shí),這輛無人駕駛汽車該做出怎樣的選擇,是否會(huì)根據(jù)各類資料來對(duì)他們之間的聯(lián)系做出“道德”評(píng)判?

……

在人工智能發(fā)展的現(xiàn)階段,最受人關(guān)注的場(chǎng)景是無人駕駛。上述場(chǎng)景在現(xiàn)實(shí)生活中發(fā)生的概率可能不高,但因無人駕駛而生的幾場(chǎng)交通事故卻不得不提醒人類:AI并非那么靠譜。比如,今年3月18日,Uber發(fā)生了一起無人駕駛汽車致死事故,真相是這輛車的傳感器已經(jīng)探測(cè)到了一位正在橫穿馬路的行人,但自動(dòng)駕駛軟件沒有在當(dāng)下采取避讓措施,最終釀成悲劇。

這起事故從表面看體現(xiàn)的是技術(shù)問題,Uber無人車檢測(cè)到了行人,但選擇不避讓。實(shí)際上,當(dāng)把判斷權(quán)轉(zhuǎn)移給計(jì)算機(jī)系統(tǒng),就會(huì)牽涉到道德和倫理困境。

美國《Science》雜志此前做過一個(gè)無人駕駛汽車道德困境的社會(huì)調(diào)查,結(jié)果顯示,受訪者認(rèn)為,無人駕駛汽車車主應(yīng)該選擇最小化對(duì)他人的傷害,即使會(huì)致使自己受傷。但當(dāng)問及會(huì)選擇購買“車主保護(hù)優(yōu)先”還是“行人保護(hù)優(yōu)先”的無人駕駛汽車,受訪者更傾向于購買“車主保護(hù)優(yōu)先”的無人駕駛汽車。

2017年8月,德國交通運(yùn)輸與數(shù)字基礎(chǔ)建設(shè)部下屬的道德委員會(huì)公布了一套被稱為世界上首部的自動(dòng)駕駛道德準(zhǔn)則,或許可以作為這個(gè)問題的參考。這套由科學(xué)家和法律專家共同提出的15條自駕系統(tǒng)的駕駛決策道德準(zhǔn)則的核心原則是:生命應(yīng)該始終優(yōu)先于財(cái)產(chǎn)或動(dòng)物。其中明確,保護(hù)人類生命一定是首要任務(wù),在事故無可避免的情況下,人的生命要比其他動(dòng)物、建物都還重要。也就是說,無人駕駛汽車系統(tǒng)在必要時(shí)會(huì)對(duì)人類和動(dòng)物的生命價(jià)值進(jìn)行量化比較,以便于無人駕駛汽車在應(yīng)對(duì)將要發(fā)生的事故時(shí)做出恰當(dāng)?shù)姆磻?yīng)。

但是,規(guī)范中也提到,自駕系統(tǒng)不得以年齡、性別、種族、是否殘疾等作為判斷條件,對(duì)于自動(dòng)駕駛系統(tǒng)來說,選擇難度似乎更大了。

在一般人看來,無人駕駛汽車上的AI系統(tǒng)中的數(shù)據(jù)是公平的、可解釋的、沒有種族、性別以及意識(shí)形態(tài)上的偏見。但I(xiàn)BM研究中心研究員Francesca Rossi告訴《IT時(shí)報(bào)》記者,大多數(shù)人工智能系統(tǒng)都是有偏見的。

2015年,谷歌自動(dòng)駕駛負(fù)責(zé)人曾表示,危機(jī)情況下,谷歌無法決定誰是更好的人,但會(huì)努力保護(hù)最脆弱的人。

“IBM開發(fā)了一種可以減少存在于訓(xùn)練數(shù)據(jù)集中偏見的方法,以便于讓之后使用該數(shù)據(jù)集進(jìn)行訓(xùn)練的AI算法盡可能保持公平。在未來5年,這些偏見將被馴服和消除。” Francesca Rossi表示。

AI是“神一樣的存在”嗎?

有可能成“神”,但會(huì)讓人類尷尬

一位隱居在山里的瘋狂科學(xué)家秘密地進(jìn)行著一項(xiàng)人工智能的實(shí)驗(yàn),他邀請(qǐng)了一位程序員共同完成這項(xiàng)圖靈測(cè)試中“人”的角色——如果人不再意識(shí)到是在與一臺(tái)計(jì)算機(jī)進(jìn)行交互,意味著機(jī)器擁有了自我意識(shí),人類歷史也將由此被改寫,“神”將由此誕生。

這是電影《機(jī)械姬》的開場(chǎng)情節(jié),在這個(gè)故事中,究竟是創(chuàng)造出超級(jí)人工智能的天才科學(xué)家是神?還是超級(jí)人工智能是神?

在瑞士阿爾卑斯盧加諾的一個(gè)實(shí)驗(yàn)室里,德國計(jì)算機(jī)科學(xué)家尤爾根·施米德胡貝的公司Nnaisense在開發(fā)可像嬰兒那樣運(yùn)作的系統(tǒng),他們?yōu)槟切?ldquo;系統(tǒng)”設(shè)置小實(shí)驗(yàn),讓它們理解這個(gè)世界是如何運(yùn)作的。他認(rèn)為,這會(huì)是未來“真正的AI”。唯一的問題在于,它們進(jìn)展過于緩慢——目前只有10億神經(jīng)連接,人類大腦皮層的神經(jīng)連接數(shù)量約為100萬億。

在世界人工智能領(lǐng)域,施米德胡貝是目前世界上唯一可能被稱為AI機(jī)器人之父的科學(xué)家,他的工作是讓機(jī)器人變得更有自主意識(shí)。他在接受媒體采訪時(shí)表示,現(xiàn)在的趨勢(shì)是,計(jì)算機(jī)每5年加快十倍,按照這個(gè)速度,只需25年,就能開發(fā)出可媲美人類大腦的遞歸神經(jīng)網(wǎng)絡(luò)。“我們距離實(shí)現(xiàn)動(dòng)物級(jí)別的智能并不遙遠(yuǎn),比如烏鴉或者卷尾猴屬。這樣,機(jī)器智能超過人類智能似乎將會(huì)在2050年發(fā)生。”

如同電影中那位創(chuàng)造了超級(jí)人工智能的科學(xué)家對(duì)機(jī)器人“自我覺醒”的熱切期待,施米德胡貝同樣不熱衷“機(jī)器人的存在主要是為人類服務(wù)”的說法,他更傾向于機(jī)器人會(huì)成為“神”。“到2050年,我們將會(huì)迎來比我們更加智能的AI,到那時(shí)候執(zhí)著于研究人類的生物圈將會(huì)變得沒有意義。AI會(huì)把歷史推向下一個(gè)階段,向有充裕資源的地方進(jìn)發(fā)。幾百年后,它們將會(huì)在銀河系建立殖民地。”在施米德胡貝看來,未來擁有人類智能甚至超過人工智能的抗熱機(jī)器人將能夠更接近于太陽能,它們最終將會(huì)在銀河系的小行星帶建立殖民地。

施米德胡貝的說法一直備受爭(zhēng)議,尤其是來自神經(jīng)系統(tǒng)學(xué)的科學(xué)家就對(duì)此表示質(zhì)疑,認(rèn)為不應(yīng)該開發(fā)讓機(jī)器人有自我意識(shí)的算法。

“AI機(jī)器人是否應(yīng)該具有自我意識(shí)”一直是國外科學(xué)家積極關(guān)注的話題,暢銷書《我們最后的發(fā)明:人工智能與人類時(shí)代的終結(jié)》作者James Barrat曾進(jìn)行過一次獨(dú)立調(diào)查,他問受訪者“超級(jí)人工智能(擁有自我意識(shí))哪一年會(huì)實(shí)現(xiàn)”,選項(xiàng)有2030年、2050年、2100年和永遠(yuǎn)不會(huì)實(shí)現(xiàn),超過三分之二的受訪者認(rèn)為超級(jí)人工智能會(huì)在2050年實(shí)現(xiàn),只有2%的參與者認(rèn)為超級(jí)人工智能永遠(yuǎn)不會(huì)實(shí)現(xiàn)。

讓人類倍感不安的隱患是,一旦人工智能完成向超級(jí)人工智能的進(jìn)化后,人類世界將會(huì)發(fā)生怎樣的改變?

超級(jí)AI可怕嗎?

遠(yuǎn)慮尚“遠(yuǎn)”,近憂在即

在《機(jī)械姬》中,最終,那臺(tái)名為eva 的超級(jí)人工智能機(jī)器人騙過了人類,通過了圖靈測(cè)試,并將長期禁錮它于幽暗實(shí)驗(yàn)室的“父親”——科學(xué)家殺害,并拋下了那個(gè)一直被她利用的程序員”遠(yuǎn)走高飛”。在她奔向藍(lán)天白云時(shí),她發(fā)現(xiàn)那是她一直向往的自由。在那之后,世界上不會(huì)有人知道她是一個(gè)通過圖靈測(cè)試的超級(jí)AI機(jī)器人。

“如果我沒有通過你的測(cè)試,會(huì)有什么發(fā)生在我身上?”“有人會(huì)對(duì)你進(jìn)行測(cè)試,然后因?yàn)槟愕谋憩F(xiàn)不盡如人意而把你關(guān)掉,或者拆掉嗎?”在電影中,eva一直在試圖探索自己與人類的關(guān)系。最終,對(duì)試圖禁錮她的人類進(jìn)行了毀滅性的傷害。

對(duì)于這樣的結(jié)局,施米德胡貝不以為然,他覺得到那個(gè)時(shí)候,人類將不適合做超級(jí)人工智能的奴隸。“對(duì)我們而言,最好的保護(hù)是讓它們對(duì)我們?nèi)狈εd趣,因?yàn)榇蠖鄶?shù)物種最大的敵人都是自己。它們對(duì)我們的關(guān)注,將會(huì)如同我們對(duì)螞蟻的關(guān)注一樣。”

顯然,施米德胡貝并沒有對(duì)超級(jí)人工智能的未來與人類的關(guān)系給出一個(gè)明確的判斷。相反,一些更為激進(jìn)的科學(xué)家提出“要把AI關(guān)進(jìn)籠子里”。

“否則,機(jī)器將接管一切,它們會(huì)決定如何處理我們!”美國路易斯威爾大學(xué)工程學(xué)院計(jì)算機(jī)工程和計(jì)算機(jī)科學(xué)系教授、網(wǎng)絡(luò)安全實(shí)驗(yàn)室創(chuàng)始人兼主管亞姆·博爾斯基提出“把AI裝進(jìn)盒子里”的方法論,“把他們放在一個(gè)可控的環(huán)境里,比如當(dāng)你研究一種電腦病毒時(shí),可以把它放在孤立的系統(tǒng)中,這個(gè)系統(tǒng)無法接入互聯(lián)網(wǎng),所以,你可以在安全的環(huán)境中了解它的行為,控制輸入和輸出。”

自從AI誕生以來,對(duì)于人類威脅論就不絕于耳。其中最主流的觀點(diǎn)就是,AI不僅僅是一個(gè)“現(xiàn)金工具”,它實(shí)際上是個(gè)獨(dú)立的個(gè)體,可以做出自己的決定。此時(shí),就與有意識(shí)但無“道德感”的動(dòng)物相似,就像人類總是無法確保野生動(dòng)物不會(huì)對(duì)人類造成安全威脅。于是,更為激進(jìn)的科學(xué)家就提出了要將AI拴起來,關(guān)進(jìn)籠子里,并且努力讓它變得安全、有益。

但這樣的隱患卻依然無法完全杜絕,人類無法控制決策的各個(gè)方面,人工智能也可能會(huì)以多種方式傷害人類。目前,在全球范圍內(nèi),關(guān)于AI威脅論主要來自以下幾個(gè)方面:一是設(shè)計(jì)上的錯(cuò)誤,就像任何軟件一樣,你會(huì)遇到電腦錯(cuò)誤,你的價(jià)值觀與人類價(jià)值觀不一致;二是有目的的、設(shè)計(jì)帶有惡意的AI,有些人想要傷害別人,他們會(huì)故意設(shè)計(jì)出一套智能系統(tǒng)來執(zhí)行摧毀和殺戮任務(wù);三是AI發(fā)展超出人類預(yù)期,人類將無法理解它在做什么,甚至無法與它進(jìn)行有意義的交流。

在AI威脅論面前,反對(duì)派科學(xué)家明確反對(duì)賦予機(jī)器人平等的權(quán)利,比如人權(quán)和投票權(quán)。亞姆·博爾斯基認(rèn)為,機(jī)器人幾乎可以無限“繁殖”。“他們可以擁有一萬億份任何軟件的拷貝,幾乎即時(shí)就可以獲得,如果每個(gè)軟件都有投票權(quán),那基本上就意味著人類將失去任何權(quán)利,意味著我們自己放棄了人權(quán)。因此,任何提議賦予機(jī)器人這種公民權(quán)利的人,就是在反對(duì)人權(quán)。”

人類準(zhǔn)備好了嗎?

用“立法”來約束

有人類學(xué)家提出,人類的核心目標(biāo)是延續(xù)自己的基因,在我們盡全力實(shí)現(xiàn)目標(biāo)時(shí),道德會(huì)在一些領(lǐng)導(dǎo)產(chǎn)生作用,比如“是否會(huì)傷害他人”。這也正是未來超級(jí)人工智能與人類最大的不同所在,一個(gè)不具有道德性的超級(jí)人工智能會(huì)努力實(shí)現(xiàn)它原本設(shè)定的目標(biāo), 在這個(gè)過程中,將對(duì)人類生存安全產(chǎn)生危險(xiǎn)。

觀點(diǎn)更為中立的科學(xué)家提出要為人工智能“立法”。以德國交通運(yùn)輸與數(shù)字基礎(chǔ)建設(shè)部下屬的道德委員會(huì)公布的一套被稱為世界上首部的自動(dòng)駕駛道德準(zhǔn)則為例,這是目前全球范圍內(nèi)唯一一個(gè)被列為行政條款的與AI相關(guān)規(guī)范,但在具體實(shí)施過程中依然存在大量技術(shù)難題,比如如何讓無人駕駛的AI系統(tǒng)能準(zhǔn)確了解條款中的含義。在騰訊研究院高級(jí)研究員曹建峰看來,大部分國家對(duì)人工智能相關(guān)立法的規(guī)范依然停留在討論階段,因?yàn)槭艿教嗖豢深A(yù)測(cè)因素的存在,包括AI語言的溝通。

科學(xué)家口中的AI憲法會(huì)是什么?它應(yīng)當(dāng)是基于現(xiàn)實(shí)世界的一個(gè)模型,以約束人工智能在各種不同條件下做出符合人類倫理的決定為目標(biāo)。

語言編程Wolfram MathemaTIca創(chuàng)始人、總裁Stephen wolfram曾提出“如何把法律與計(jì)算聯(lián)系起來”的疑問,“發(fā)明一種合法代碼,不同于今天的法律和合同上的自然語言?”“為AI設(shè)計(jì)一種通用語言的想法,用一種符號(hào)化的語言,把法律表示可計(jì)算的形式,并且告訴AI我們想做什么?”在Stephen wolfram看來,僅僅依靠語言的改變來約束AI,在現(xiàn)實(shí)中并不可行。當(dāng)下對(duì)人類最大的挑戰(zhàn)不是設(shè)定法律,而是尋找出某種適合的方式來描述這些適用于AI的法律或者規(guī)范。AI計(jì)算在某種程度上是狂野不可控的東西,因此很難存在一個(gè)簡(jiǎn)單的原理,而是通過搭建更為復(fù)雜的框架來囊括這樣的法則。

“我們當(dāng)下更多的是關(guān)注如何約束AI開發(fā)者。”在曹建峰看來,與國外前沿研究AI不同,國內(nèi)更關(guān)注當(dāng)下,比如在個(gè)人隱私保護(hù)以及性別歧視等倫理角度出發(fā)。

亞太人工智能法律研究院院長劉德良曾表示,人工智能立法總的思路要往“安全可控”的方向發(fā)展,這也應(yīng)是最高指導(dǎo)原則,“人工智能在各個(gè)領(lǐng)域都會(huì)有具體的應(yīng)用,比如在教育、醫(yī)療、家政服務(wù)、道路交通等領(lǐng)域,涉及的問題也不盡相同。為了達(dá)到安全可控,應(yīng)該首先在行業(yè)內(nèi)出臺(tái)標(biāo)準(zhǔn),也就是人工智能產(chǎn)品在上市和投入市場(chǎng)使用之前,必須符合一些法定的標(biāo)準(zhǔn),但是‘標(biāo)準(zhǔn)的空缺’應(yīng)該彌補(bǔ)。而同樣的,不同的領(lǐng)域所涉及的安全標(biāo)準(zhǔn)也不一樣。所以在產(chǎn)業(yè)發(fā)展時(shí),對(duì)人工智能的安全標(biāo)準(zhǔn)要有強(qiáng)制性的規(guī)定,只有符合這個(gè)標(biāo)準(zhǔn)才能讓其上市和投入使用,這是保障其安全可控的基本要點(diǎn)。”

人機(jī)和諧相處的“秘籍”是什么?

AI與人類的價(jià)值觀一致

除了行業(yè)標(biāo)準(zhǔn)以外,人工智能最主要的問題是“算法”。“為了保障人工智能的安全可控,要對(duì)其具體的‘算法’設(shè)立專家審查評(píng)估委員會(huì)。這一委員會(huì)可能包括技術(shù)專家、網(wǎng)絡(luò)安全專家、管理專家等,對(duì)其算法和管理方面進(jìn)行審查,因?yàn)榭赡艽嬖谄?lsquo;算法’被一些居心叵測(cè)的人所篡改,造成不良的影響。此外,還涉及到人工智能是否符合倫理道德的要求。”劉德良說。

去年7月,國務(wù)院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,其中提到,到2025年,要初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力。

得益于機(jī)器學(xué)習(xí)技術(shù)的進(jìn)步,人工智能在不斷發(fā)展,并給許多產(chǎn)業(yè)帶來了革命性的變化,F(xiàn)rancesca Rossi告訴記者,機(jī)器在學(xué)習(xí)過程中的確會(huì)涉及到倫理道德問題。在她看來,機(jī)器在倫理道德上有時(shí)會(huì)更具優(yōu)勢(shì),因?yàn)槿祟愒跊Q策過程中會(huì)存在偏差。不過,F(xiàn)rancesca Rossi也坦言,當(dāng)人工智能碰到倫理道德,存在三方面的問題:第一,人類的道德標(biāo)準(zhǔn)是難以量化的;第二,道德在人類社會(huì)屬于常識(shí),但卻很難用機(jī)器能夠理解的語言去說明,也就是說機(jī)器有時(shí)并不能理解一些道德標(biāo)準(zhǔn);第三,如何在人和系統(tǒng)之間建立信任機(jī)制。“現(xiàn)階段,機(jī)器學(xué)習(xí)是人工智能系統(tǒng)不斷完善的主要驅(qū)動(dòng)力。但是,機(jī)器學(xué)習(xí)的局限性之一是,其結(jié)果大多是以‘黑箱’的形式存在,即人們只能‘知其然’,卻‘不知其所以然’,這是引發(fā)人工智能法律、倫理等問題的重要原因之一。以自動(dòng)駕駛為例,一旦發(fā)生事故,很難認(rèn)定誰應(yīng)當(dāng)為此負(fù)責(zé)。也正因?yàn)槿绱?,人工智能倫理問題的解決與技術(shù)的發(fā)展密切相關(guān),可解釋、可說明性是目前人工智能系統(tǒng)亟待解決的問題。”

也有業(yè)內(nèi)人士擔(dān)憂,人工智能全面超越人類智能并出現(xiàn)自我意識(shí)是危險(xiǎn)的,不過這是遠(yuǎn)慮;但其不可解釋性會(huì)帶來“近憂”,如將深度學(xué)習(xí)應(yīng)用于軍事決策,萬一系統(tǒng)出現(xiàn)原則性決策失誤怎么辦?

4月16日,英國議會(huì)發(fā)布報(bào)告說,在發(fā)展和應(yīng)用人工智能過程中,有必要把倫理道德放在核心位置,以確保這項(xiàng)技術(shù)更好地造福人類。報(bào)告提出,應(yīng)確立一個(gè)適用于不同領(lǐng)域的“人工智能準(zhǔn)則”,其中主要包括五個(gè)方面:人工智能應(yīng)為人類共同利益服務(wù);人工智能應(yīng)遵循可理解性和公平性原則;人工智能不應(yīng)用于削弱個(gè)人、家庭乃至社區(qū)的數(shù)據(jù)權(quán)利或隱私;所有公民都應(yīng)有權(quán)利接受相關(guān)教育,以便能在精神、情感和經(jīng)濟(jì)上適應(yīng)人工智能發(fā)展;人工智能絕不應(yīng)被賦予任何傷害、毀滅或欺騙人類的自主能力。

我國的人工智能技術(shù)可謂與世界發(fā)達(dá)國家同步,但倫理和法律研究則嚴(yán)重滯后,這種“缺位”會(huì)制約未來的發(fā)展。人機(jī)關(guān)系中,智能機(jī)器與人類的價(jià)值觀和規(guī)范體系必須一致。如何將人類的價(jià)值觀和規(guī)范嵌入人工智能系統(tǒng),賦予AI以人性的光輝,成為當(dāng)前所面臨最現(xiàn)實(shí)的挑戰(zhàn)。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉