AI必須以輔助人類為設(shè)計(jì),谷歌稱ai研究不會(huì)將其用于軍事武器
據(jù)報(bào)道,谷歌CEO桑達(dá)爾·皮查伊(Sundar Pichai)周四發(fā)布了一篇文章,闡述了谷歌人工智能研究方面的原則(principles),稱不會(huì)將其用于軍事武器。
谷歌闡述了該公司研究人工智能應(yīng)用的原則:該應(yīng)用應(yīng)該對(duì)社會(huì)有益(Be socially beneficial);不會(huì)產(chǎn)生或加強(qiáng)不公平的偏見(Avoid creaTIng or reinforcing unfair bias);安全(Be built and tested for safety)、對(duì)人負(fù)責(zé)(Be accountable to people)等等。
谷歌還表示,該公司不會(huì)允許其人工智能產(chǎn)品用于軍事,可能造成全面損害的武器或技術(shù)等等。
谷歌最近曾因向美國國防部的Project Maven合作項(xiàng)目提供圖像識(shí)別技術(shù)而遭到自家員工的批評(píng)。今年,谷歌4000多名員工曾簽署了一份請(qǐng)?jiān)笗蠊雀韫芾韺油V箙⑴cProject Maven,并承諾不再“研發(fā)戰(zhàn)爭(zhēng)技術(shù)”。
另外,微軟CEO納德拉也曾經(jīng)提出過類似的AI安全6大原則。納德拉的六大原則:AI必須以輔助人類為設(shè)計(jì)準(zhǔn)則;透明性準(zhǔn)則;AI必須在追求效率最大化的同時(shí),不損害人類的尊嚴(yán);隱私性原則;算法可靠準(zhǔn)則;防偏見準(zhǔn)則。