Google Brain推出語(yǔ)音識(shí)別新技術(shù)助力商業(yè)發(fā)展
受先前語(yǔ)音和視覺(jué)領(lǐng)域增強(qiáng)成功的啟發(fā),Google Brain最近提出了SpecAugment,一種數(shù)據(jù)增強(qiáng)方法,它操作輸入音頻的對(duì)數(shù)mel光譜圖,而不是原始音頻本身。SpecAugment方法不但非常簡(jiǎn)單,計(jì)算成本也很低,因?yàn)樗苯幼饔糜趯?duì)數(shù)mel光譜圖,而不需要額外的數(shù)據(jù)。這種簡(jiǎn)單的方法非常有用,并使研究人員能夠訓(xùn)練端到端的監(jiān)聽參與和拼寫ASR網(wǎng)絡(luò)。
通過(guò)使用簡(jiǎn)單的手工策略增加訓(xùn)練集,即使沒(méi)有語(yǔ)言模型的幫助,研究人員也能夠在端到端的LAS網(wǎng)絡(luò)上獲得librispeech 960h和Switchboard 300h超越混合系統(tǒng)的性能。它優(yōu)于復(fù)雜的混合系統(tǒng),通過(guò)使用更大的網(wǎng)絡(luò)和更長(zhǎng)的訓(xùn)練時(shí)間,SpecAugment能夠達(dá)到最先進(jìn)的效果。
全球自動(dòng)語(yǔ)音識(shí)別(ASR)市場(chǎng)預(yù)計(jì)在2016年至2024年間以超過(guò)15%的復(fù)合年增長(zhǎng)率增長(zhǎng)。隨著先進(jìn)電子設(shè)備的飛速使用,人們對(duì)開發(fā)尖端功能和效率的需求越來(lái)越大,這樣的功能和效率提高了應(yīng)用的ASR精度。SpecAugment顯著提高了ASR的性能,并可能成為人工智能工程師驅(qū)動(dòng)下一代ASR應(yīng)用程序所需的必要條件,這些應(yīng)用程序包括機(jī)器人、交互式語(yǔ)音響應(yīng)、自定義詞典、視頻游戲、語(yǔ)音驗(yàn)證、家用電器等。
使用一維CNN的端到端環(huán)境聲音分類模型,加拿大的一組研究人員最近提出了一個(gè)端到端的一維CNN環(huán)境聲音分類模型。根據(jù)音頻信號(hào)的長(zhǎng)度,該模型由3-5個(gè)卷積層組成。與許多傳統(tǒng)方法實(shí)現(xiàn)二維表示的傳統(tǒng)模型不同,這一模型是直接從音頻波形中學(xué)習(xí)分類器。
在對(duì)包含8732個(gè)音頻樣本的數(shù)據(jù)集進(jìn)行評(píng)估時(shí),新方法演示了幾種相關(guān)的分類器表示,其結(jié)果超越了現(xiàn)有的基于二維實(shí)例和二維CNN的最優(yōu)效果。此外,在環(huán)境聲音分類方面,該模型比大多數(shù)其他CNN體系結(jié)構(gòu)的參數(shù)都要少,與傳統(tǒng)的二維體系結(jié)構(gòu)相比,平均精度要高出11%到27%。
根據(jù)這篇論文的評(píng)價(jià)結(jié)果,該方法在提供高度魯棒的環(huán)境聲音分類應(yīng)用上具有很好的應(yīng)用前景。
對(duì)于初學(xué)者來(lái)說(shuō),它的效率很高,與傳統(tǒng)的2D CNN相比,它只需要很少的訓(xùn)練數(shù)據(jù)(后者需要數(shù)百萬(wàn)個(gè)訓(xùn)練參數(shù))。它還實(shí)現(xiàn)了最先進(jìn)的性能,可以通過(guò)實(shí)現(xiàn)滑動(dòng)窗口處理任意長(zhǎng)度的音頻信號(hào)。最后,它緊湊的體系結(jié)構(gòu)大大降低了計(jì)算成本。