科學(xué)的盡頭即是人類的毀滅,任何事物都是矛盾性的,當(dāng)這個事物強大到不可想象的時候,任何一點點不利因素都會帶來人類無法承受的災(zāi)難,人工智能我認為就是計算機科學(xué)的盡頭,當(dāng)他有一天不可控時會比核彈還要可怕。
我們在一片對18歲照片的花樣贊美中,迎來了又一個新年。
按說新年應(yīng)該是開心的時候,但是剛剛跨年結(jié)束,抬頭一看居然要上班了!不由得悲從心來……所以今天我們打算說點不那么開心的事。
最近幾天,各種對2018年的科技預(yù)測層出不窮,其中對AI的暢想占了大頭,內(nèi)容差不多是一片喜慶祥和。
但事有兩來,當(dāng)我們開始從AI中收獲價值的時候,技術(shù)升級后帶來的潛在風(fēng)險也在升溫。這就像汽車當(dāng)然好過牛車,但汽車也會帶來各種各樣的交通事故。我們當(dāng)然不能因此禁止汽車上路,但是也不能對交通問題視而不見。
今天我們來預(yù)測幾個,很可能在2018年進入我們眼簾的“人工智能負能量”。
畢竟做好準備,是解決問題的前提條件。
一、人工智能倫理問題開始出現(xiàn)個案2017年1月,在加利福尼亞州阿西洛馬舉行的Beneficial Al會議上,近千名人工智能相關(guān)領(lǐng)域的專家,聯(lián)合簽署了著名的《阿西洛馬人工智能23條原則》。
隨后,各種關(guān)于人工智能倫理道德的討論、會議,以及相關(guān)協(xié)會和科技組織開始出現(xiàn)在公眾視野里。
《23條原則》的主要內(nèi)容,就是呼吁人工智能不能損害人類的利益和安全,同時人工智能必須可以被人類控制,同時人類要盡量尊重人工智能和機器人的安全。
聽起來頗有點科幻的味道,但是在各行各業(yè)開始部署AI,尤其開始利用AI進行自動化決策的時候,人工智能的倫理與道德問題或許真的會浮出水面。
比如說,自動駕駛車輛在馬上要發(fā)生事故時,是優(yōu)先保護路人還是乘客?假如AI診斷系統(tǒng),給出的建議是安樂死,那么它算是殺人嗎?為了避免更大損失,AI系統(tǒng)是否能打破規(guī)則,自行其是?
這其中最著名的,大概就是去年谷歌批評上海交大某團隊進行的“看臉定罪犯”研究。引發(fā)了媒體對于AI價值觀的大量討論。
在各個產(chǎn)業(yè)場景開始使用AI技術(shù)時,隨之而來的邊界問題、責(zé)權(quán)問題、道德選擇問題這些在實驗室中不會出現(xiàn)的矛盾將很可能被引發(fā)。
人類還從未真正討論過這些。假如2018年人工智能的落地化足夠快,倫理問題的苗頭或許會臨近。