“殺手機(jī)器人”的憂慮,你怎么看
人們?cè)敢馀汕矚⑷藱C(jī)器到前線作戰(zhàn),而不愿讓自己子女戰(zhàn)死沙場(chǎng)。但是,人們卻又不希望看到敵人派殺人機(jī)器來追殺自己。那么,人類到底要不要擁有這種“殺手機(jī)器人”(killer robots),即所謂的致命的自主武器 (lethal autonomous weapons)?對(duì)于這件事,特斯拉和SpaceX CEO埃隆·馬斯克的立場(chǎng)可謂異常堅(jiān)定:禁止。
《中國(guó)經(jīng)濟(jì)周刊》對(duì)此刊發(fā)《除了車和火箭,馬斯克還對(duì)一件事非常上心》一文,回顧了包括馬斯克在內(nèi)的眾多科技圈大佬對(duì)于所謂“殺手機(jī)器人”的憂慮,不過也有人認(rèn)為馬斯克是杞人憂天。你怎么看?
>>?焦點(diǎn)一
擔(dān)心:科技圈的呼吁力量有限
@睿棋:潘多拉魔盒一直都在,有人封存就有人竊取,有人強(qiáng)行打開就有人搶奪。
@你在哪兒呢:科技圈大佬們做的關(guān)于禁止“殺手機(jī)器人”的承諾讓我覺得恐怖。因?yàn)樗麄冞@樣承諾,就意味著可能有人在造殺人的AI了,細(xì)思恐極。
@墅燕:人類有時(shí)候是控制不了自己內(nèi)心欲望的。電影 《未來世界》 正在逐漸走近我們,而此刻的我們都在為能使用機(jī)器人為自己盈利而沾沾自喜,渾然不知。抑制人的警覺性從來不是一步到位的,溫水煮青蛙乃是最簡(jiǎn)單最實(shí)用的。
@云上逐日行:等真的造出了高級(jí)人工智能,用不用在武器上就由不得你們決定了。
@猁子9:人工智能發(fā)展永遠(yuǎn)不是幾千個(gè)科技圈的人能把握的。
@廢紙桶子:就算簽了不開發(fā)自主殺人機(jī)器的宣言,也可能會(huì)撕毀,只是現(xiàn)在沒造出來或者說沒有利益沖突而已。希望科學(xué)家不要向資本低頭,不要把承諾變成廢紙。
>>?焦點(diǎn)二
機(jī)器人落入不法分子之手最可怕
@小雨:人控制的殺人機(jī)器是武器,不可怕。能讓機(jī)器來選擇殺誰的機(jī)器,才可怕。
@曾伽·宗博魯特:你并不能決定所謂的自主武器如何使用。水結(jié)成冰都能成為致命武器,主要看誰使用,只有致命程度的高低之分。
@孤寡老漢:如果無人駕駛的車載電腦被人黑進(jìn)去了,想想都恐怖。
@雲(yún)師兄:菜刀不會(huì)殺人,但是到了暴徒手里就是兇器。機(jī)器人不會(huì)殺人,但是到了恐怖分子手里,他能給改成殺人機(jī)器人。
@silent1090536:?jiǎn)栴}是怎么能保證機(jī)器人的核心技術(shù)不會(huì)落到恐怖組織的人的手里。
>>?焦點(diǎn)三
需要法律護(hù)衛(wèi)發(fā)展
@白羅斯水晶:大多時(shí)候,機(jī)器人只是一種智能化生產(chǎn)工具,如果編入特定的程序給它作業(yè),它當(dāng)然會(huì)“屠殺”。是在屠宰場(chǎng)屠殺牲畜,還是出門去戰(zhàn)場(chǎng)屠殺人?至于機(jī)器人能否作為武器投入戰(zhàn)爭(zhēng),有國(guó)際法規(guī)定嗎?
@喜歡倒著仰泳:機(jī)器人殺人,其“父母”應(yīng)該一律以死刑論處。
@一蓑煙雨qxsmh:避免潛在風(fēng)險(xiǎn)最有效的辦法實(shí)際上并不取決于技術(shù)發(fā)展,而取決于人類的決定。
@Reder:有AI就必須要有反AI,從法律、設(shè)計(jì)理念、技術(shù)規(guī)范及軟件硬件等,構(gòu)建完備的法律方面的規(guī)范系統(tǒng)。