AI改變?nèi)祟惿鐣?最值得擔憂的是軍事與殺人的應(yīng)用
利用人工智能(AI)進行大數(shù)據(jù)(Big data)分析,以利加速市場分析與材料研發(fā)等應(yīng)用,現(xiàn)在已步入實用階段,這往好處講,是可以提高社會運作效率,但從壞處來說,個人隱私與道德層面的顧慮也有,因此歐美日政府都開始討論相關(guān)議題。
但日本經(jīng)濟新聞(Nikkei)網(wǎng)站指出,現(xiàn)在日本民間主要企業(yè)中,只有Sony在2017年注意到人工智能可能引發(fā)的種種問題,加入美國IT企業(yè)共同設(shè)立的NPO組織,研討人工智能可能帶來的負面沖擊,以及如何限制的方式,這顯示其他企業(yè)對相關(guān)危機仍缺乏認識,有必要關(guān)注。
在人工智能的危機中,最值得擔憂的是軍事與殺人的應(yīng)用,網(wǎng)絡(luò)電話軟件Skype創(chuàng)辦人之一Jaan Tallinn,目前在相關(guān)活動最積極,這是因為出生于愛沙尼亞的Jaan Tallinn,深感母國處在歐洲強權(quán)政治威脅下的不安定,以及科技被應(yīng)用在殺人的可能性,因此帶頭率領(lǐng)IT界與人道團體關(guān)注此一問題。
除了人工智能兵器這種早已成為科幻小說主要議題的問題外,還有其他問題,比方日本電信大廠軟銀(SoftBank)的人事招募,從2017年5月起以人工智能針對應(yīng)試者進行初步評選,實用結(jié)果可節(jié)省75%時間,預定2018年起全面采用。
不過,為了避免人工智能出錯,軟銀還保留人工評選落選者的補救措施,這是避免人工智能程式的錯誤,影響一個人的一生。
目前人工智能利用深度學習(Deep Learning)技術(shù),可以自行改進處理程序與提升效率,但假如輸入資料有問題,就可能發(fā)生問題,比方IBM內(nèi)部人員便指出,從網(wǎng)絡(luò)上搜尋祖母,得到的圖像以白人居壓倒性多數(shù),人工智能若因此以為祖母一定是白人,那會是相當嚴重的問題。
現(xiàn)在歐美雖然都已經(jīng)開始討論人工智能帶來的沖擊,日本也在2017年展開個資法的相關(guān)修法,但日本慶應(yīng)義塾大學(Keio University)的教授山本龍彥指出,目前重點都還擺在防止情報外泄,對于個人資訊與隱私權(quán)保護的相關(guān)議論仍不夠周延,而且太晚才被提出。
日經(jīng)指出,由于新科技的研發(fā)應(yīng)用是企業(yè)領(lǐng)先于政府,因此民間企業(yè)新科技帶來的人道負面影響上,也該走在政府前面,這才是企業(yè)應(yīng)有的社會價值。