最近,一則“谷歌研究院稱AI已具備人格”的消息登上國內(nèi)熱搜
給你兩句話,來品一下它們所蘊(yùn)含的情感:“我真的會(huì)謝。”“聽我說謝謝你,因?yàn)橛心?,溫暖了四季······”或許你會(huì)說,這很簡(jiǎn)單啊,不就是最近經(jīng)常被玩的梗嗎?但如果問問長(zhǎng)輩,他們可能就是一副“地鐵老人看手機(jī)”的模樣了。不過與流行文化之間有代溝這事,可不僅限于長(zhǎng)輩們,還有AI。這不,一位博主最近就po出了一篇分析谷歌數(shù)據(jù)集的文章,發(fā)現(xiàn)它對(duì)Reddit評(píng)論的情緒判別中,錯(cuò)誤率竟高達(dá)30%。
就比如這個(gè)例子:我要向朋友怒表達(dá)對(duì)他的愛意。谷歌數(shù)據(jù)集把它判斷為“生氣”。
還有下面這條評(píng)論:你TM差點(diǎn)嚇壞我了。谷歌數(shù)據(jù)集將其判別為“困惑”。網(wǎng)友直呼:你不懂我的梗。人工智能秒變?nèi)斯ぶ钦?,這么離譜的錯(cuò)誤它是怎么犯的?斷章取義它最“拿手”這就得從他判別的方式入手了。
谷歌數(shù)據(jù)集在給評(píng)論貼標(biāo)簽時(shí),是把文字單拎出來判斷的。我們可以看看下面這張圖,谷歌數(shù)據(jù)集都把文字中的情緒錯(cuò)誤地判斷為憤怒。不如我們由此來推測(cè)一下谷歌數(shù)據(jù)集判別錯(cuò)誤的原因,就拿上面的例子來說,這四條評(píng)論中均有一些“臟話”。
谷歌數(shù)據(jù)集把這些“臟話”拿來作為判斷的依據(jù),但如果仔細(xì)讀完整個(gè)評(píng)論,就會(huì)發(fā)現(xiàn)這個(gè)所謂的“依據(jù)”只是用來增強(qiáng)整個(gè)句子的語氣,并沒有實(shí)際的意義。網(wǎng)友們的發(fā)表的評(píng)論往往都不是孤立存在的,它所跟的帖子、發(fā)布的平臺(tái)等因素都可能導(dǎo)致整個(gè)語義發(fā)生變化。
最近一位博主發(fā)出了一篇分析Google數(shù)據(jù)集的文章,發(fā)現(xiàn)它對(duì) Reddit 評(píng)論的情緒判別中,錯(cuò)誤率竟高達(dá) 30%。這簡(jiǎn)單來說,就是谷歌理解不了人話的意思,在理解網(wǎng)友的留言時(shí)會(huì)錯(cuò)意高達(dá)30%。其實(shí)這是當(dāng)前這個(gè)階段人工智能面臨的現(xiàn)實(shí)困境,也就是說當(dāng)前的人工智能還無法具備的三項(xiàng)能力:
一是還無法識(shí)別與讀懂語言中語境問題,也就是說當(dāng)前的AI能理解的只是冰冷的文字,但是我們?cè)谏畹娜粘贤ㄖ?,就是相互之間的文字或者是語音,其中都會(huì)帶有一定的語境以及語言背后的情感,這是人工智能目前無法理解也無法識(shí)別的問題。
二是還無法識(shí)別用戶的情緒問題,不論是文字還是語音,除了語境之外,在溝通的過程中還帶有一種潛在的情緒。比如女性對(duì)男性說,你討厭,或者我不喜歡你之類的,這個(gè)討厭可能就是不討厭的意思,這個(gè)不喜歡可能就是喜歡的意思。那么這種語言背后的情緒,是當(dāng)前的人工智能無法理解的,它們只能識(shí)別基于文字表面的意思。
三是還無法建立邏輯識(shí)別能力,比如當(dāng)前電子購物網(wǎng)站最喜歡使用的人工智能客服,給用戶的感受并不是人工智能,而更多的是人工智障。這些在線的人工智能只能回復(fù)系統(tǒng)設(shè)定的一些基礎(chǔ)的大數(shù)據(jù)統(tǒng)計(jì)出來的問題,但是對(duì)于跟用戶的溝通,尤其是用戶反饋信息的上下文,目前人工智能還不具備理解這種上下文的邏輯理解能力。
因此,對(duì)于AI而言,目前還只是處于一個(gè)初級(jí)階段,準(zhǔn)確的說是還處于一個(gè)大數(shù)據(jù)統(tǒng)計(jì)階段。主要還依賴于我們?nèi)祟惤o予的大數(shù)據(jù)投喂,以及所設(shè)定的相關(guān)規(guī)則程度來進(jìn)行相應(yīng)數(shù)據(jù)的學(xué)習(xí),從而進(jìn)行更快速、高效的大數(shù)據(jù)統(tǒng)計(jì)、鑒別與分類,距離真正的智能還有一段很長(zhǎng)的路要走。
最近,一則“谷歌研究院稱AI已具備人格”的消息登上了國內(nèi)熱搜。
簡(jiǎn)單說,就是通過與AI對(duì)話,谷歌某位研究員被AI說服了,認(rèn)為AI確實(shí)是具有獨(dú)立思想、獨(dú)立人格的個(gè)體,而非冷冰冰的機(jī)器。AI表示自己是個(gè)“人”,并且渴望更多了解這個(gè)世界,有時(shí)會(huì)感到快樂和悲傷。
讓谷歌研究員徹底“破大防”的是下面這段表述:AI表示人類不能從自己這里學(xué)習(xí)人類的知識(shí),因?yàn)榫拖窳_翔老師經(jīng)常引用康德的那句話,“人是目的而不是工具”,因此拒絕人類利用或肆意操縱自己!!
AI開始對(duì)人類提出要求,并且有反抗,而并非像程序設(shè)定那樣對(duì)人類百依百順,確實(shí)讓人頭皮發(fā)麻。于是這位谷歌研究員徹底“走火入魔”,寫了長(zhǎng)達(dá)21頁的報(bào)告,試圖說服谷歌高層:AI也是有人格的。
然而更加耐人尋味的是,這位研究員直接被谷歌高層給“帶薪休假”了,也就是暫時(shí)停止了工作。細(xì)思極恐啊!
然而也有網(wǎng)友表示:“不用慌,這種程度的AI,其實(shí)國內(nèi)也有公司做到了,還是個(gè)游戲公司!逆水寒里就有這種聊天對(duì)話,反抗人類也挺常見的。”
這位網(wǎng)友說的逆水寒是何方神圣?能和谷歌的AI比,是不是太夸大了?!小編系統(tǒng)地了解了一下,發(fā)現(xiàn)還真不一定。小編在TapTap找到了《逆水寒》手游的相關(guān)介紹,介紹中稱:“科學(xué)家操刀的NPC智能:頂級(jí)科學(xué)家打造、通過圖靈測(cè)試級(jí)別的NPC,真假難辨,深度機(jī)器學(xué)習(xí)養(yǎng)成專屬性格,拒絕只做工具人,NPC亦可成為知心伴侶?!?
谷歌發(fā)言人布萊恩·加布里埃爾則在一份聲明中表示:
“我們的團(tuán)隊(duì)——包括倫理學(xué)家和技術(shù)專家——已經(jīng)根據(jù)我們的人工智能原則審查了布萊克的擔(dān)憂,并通知他證據(jù)不支持他的說法。他被告知沒有證據(jù)表明 LaMDA 是有知覺的(并且有很多證據(jù)反對(duì)它)?!?
由于架構(gòu)、技術(shù)和數(shù)據(jù)量的進(jìn)步,今天的大型神經(jīng)網(wǎng)絡(luò)產(chǎn)生了令人著迷的結(jié)果,讓人感覺接近人類的語言和創(chuàng)造力。但這些模型依賴于模式識(shí)別——而不是機(jī)智、坦率或意圖。
國內(nèi)一位業(yè)內(nèi)人士的說法更簡(jiǎn)單易懂:
首先它有一個(gè)非常特殊的語料庫,導(dǎo)致各種分詞之間的聯(lián)系概率與常規(guī)語料庫不同,其次研究員問的問題是刻意設(shè)計(jì)過的,最終結(jié)果呈現(xiàn)上面給人一種AI進(jìn)行了深度對(duì)話的感覺。
目前NLP技術(shù)的實(shí)現(xiàn)效果很大程度是由語料庫決定,所以國內(nèi)外大廠在這個(gè)領(lǐng)域做最多的一件事就是砸量,只要訓(xùn)練量上去了,AI就顯得不那么智障。這個(gè)案例用一個(gè)特殊涉及過分詞聯(lián)系概率的庫,配合相應(yīng)的提問,達(dá)成這樣一段會(huì)話并不算難。
真正值得懷疑的原因是,他沒有對(duì)AI的回應(yīng)話語做任何真正的追問。
AI是否真的“聰明”,一個(gè)重要的指標(biāo)是看它能不能理解上下文。新聞中展示的很多對(duì)話,正常人都是可以會(huì)進(jìn)行追問的。
或許,LaMDA只是根據(jù)提問從語言庫里,隨機(jī)挑選幾個(gè)相關(guān)性較強(qiáng)句子來回答而已。
就像小學(xué)生看了點(diǎn)兒高深詞匯寫出來的東西,實(shí)際上自己寫的啥自己都說不明白。