谷歌旗下的人工智能公司DeepMind又取得突破。繼AlphaGo贏了人類棋手后,他們又研制出了能夠生成模仿人類語音的系統(tǒng),該系統(tǒng)讓機器說話與人類說話之間的差距縮小了50%。DeepMind將這個系統(tǒng)命名為Wavenet。
讓人能與機器對話一直是人類希望在人工智能領(lǐng)域里實現(xiàn)的目標(biāo)。但是,目前用計算機生成語音仍然大量地依賴于TTS(文本到語音)拼接技術(shù)。在這個過程中,機器首先要記錄一個說話人的聲音片段,并基于此構(gòu)建超大型的數(shù)據(jù)庫,隨后,經(jīng)過再次結(jié)合過程,形成完整的表達。這樣一來,在不記錄一個完整的新數(shù)據(jù)庫的情況下,要修飾聲音就會變得很困難(比如,轉(zhuǎn)化到不同的說話者,或者轉(zhuǎn)化語音中的情感和語氣)。
WaveNet改變了這種舊范式,它直接對原始聲音信號的聲浪建模,每次對一個樣本進行建模。和生成更加自然的語音一樣,使用原始的聲波意味著WaveNet能對任何音頻建模,其中包括音樂。
WaveNet使用的是全卷積神經(jīng)網(wǎng)絡(luò),當(dāng)中的卷積層有多個擴張因素,允許它的接收域在深度上呈指數(shù)級的增長,覆蓋數(shù)千個時間步長。
研究人員稱WaveNet能知道自己說的是什么。首先,研究人員通過把文本轉(zhuǎn)化成一個語言與聲學(xué)特征序列(這個序列包含了當(dāng)下的聲音、字母、詞匯等),然后把這一序列喂到WaveNet中,從而能讓模型了解到自己要說什么。
同時,研究人員還指出,如果在沒有文本序列的情況下訓(xùn)練這一網(wǎng)絡(luò),它仍然能生成語音,但是這樣的話它需要辨別要說的是什么。測試結(jié)果顯示,這樣一來,WaveNet結(jié)果有點像在說胡話,其中真實的單詞被類似發(fā)音的聲音打亂了。
此外,WaveNets在有些時間還可以生成例如呼吸和嘴部運動這樣的非語言聲音,這也反映了一個原始的音頻模型所擁有的更大的自由度。
2015年被谷歌收購后,DeepMind就獲得了使用谷歌數(shù)據(jù)的權(quán)利,這對于他們訓(xùn)練自己的系統(tǒng)意義重大。這次訓(xùn)練WaveNet的數(shù)據(jù)用的就是谷歌TTS數(shù)據(jù)庫。DeepMind還讓系統(tǒng)與谷歌現(xiàn)在最好的TTS系統(tǒng)(參數(shù)的和合成的)以及與人類使用MOS進行了對比。對比結(jié)果顯示,WaveNet降低了人類表現(xiàn)與機器表現(xiàn)之間的差異,在英語和中文上都將差距縮小了50%以上。
訓(xùn)練結(jié)束后,研究人員可以把網(wǎng)絡(luò)數(shù)據(jù)作為樣本,產(chǎn)生合成的表達,進行取樣,然后用到下一個步驟的預(yù)測中。這樣按部就班地建立樣品計算成本高昂,但研究人員稱,在生成復(fù)雜的、逼真的音頻上,這至關(guān)重要。
彭博社稱,目前谷歌還沒有推出關(guān)于WaveNets的任何商業(yè)應(yīng)用,因為它需要巨大的計算能力,訓(xùn)練的音頻信號達到每秒16000次以上。
但許多高科技公司可能會密切關(guān)注DeepMind的突破。因為語音正成為人類和機器互動中越來越重要的手段。亞馬遜、蘋果、微軟和谷歌都在投資能讓用戶通過語音進行交互的個人數(shù)字助理。谷歌播放的國際總監(jiān)馬克·貝內(nèi)特稱,使用谷歌移動搜索中,有20%是由聲音,而不是書面文字完成的。
谷歌同樣沒有對外界透露DeepMind的研究會給自己帶來哪些商業(yè)上的幫助。但在今年,谷歌曾對外表示已經(jīng)使用了DeepMind40%的技術(shù),其中包括幫助減少數(shù)據(jù)中心的電力需求。以及將DeepMind的技術(shù)用到Y(jié)ouTube和谷歌播放的廣告產(chǎn)品服務(wù)上。