語音識別技術(shù),也被稱為自動語音識別(Automatic Speech Recognition,ASR),其目標是將人類的語音中的詞匯內(nèi)容轉(zhuǎn)換為計算機可讀的輸入,例如按鍵、二進制編碼或者字符序列。與說話人識別及說話人確認不同,后者嘗試識別或確認發(fā)出語音的說話人而非其中所包含的詞匯內(nèi)容。2019年8月17日,北京互聯(lián)網(wǎng)法院發(fā)布《互聯(lián)網(wǎng)技術(shù)司法應(yīng)用白皮書》,該《白皮書》闡述了十大典型技術(shù)應(yīng)用,其中包括語音識別技術(shù)。
完整的語音芯片識別系統(tǒng)涵蓋了很多技術(shù),成熟的語音識別技術(shù),幾乎改變了互聯(lián)網(wǎng)和人機交互的方式,語音識別技術(shù)的發(fā)展速度也是迅速的,幾乎每年都會有新的驚喜出現(xiàn),那么完整的語音識別系統(tǒng)到底包含哪些技術(shù)呢?
完整的語音識別系統(tǒng)包含哪些技術(shù)
一、信號處理技術(shù)
對語音信號進行分析處理,通過靜音處理、噪音處理、語音增強等方法,消除外部環(huán)境對語音的影響,去除多余信息。
二、聲學(xué)特征提取技術(shù)
接收信號處理后等到的有效信號,對波形進行聲學(xué)特征提取,提取關(guān)鍵信息和表達語言含義的特征信息。
三、聲學(xué)模型處理技術(shù)
聲學(xué)模型是語音識別技術(shù)中最關(guān)鍵的部分,它可以提取語音特征矢量序列,計算發(fā)音模板的距離,生成聲學(xué)模型分數(shù)。
四、語音模型技術(shù)
語音模型對語音識別技術(shù)也非常的重要,通常采用的是統(tǒng)計語法的語音模型、語義和語法結(jié)構(gòu)命令語言模型為主,對語法和語義進行分析,減少搜索空間,提高系統(tǒng)識別率。語音識別技術(shù)是將聲音轉(zhuǎn)化成文字的一種技術(shù),類似于人類的耳朵,擁有聽懂他人說話的內(nèi)容并將其轉(zhuǎn)換成可以辨識的內(nèi)容的能力。
不妨設(shè)想一個場景,當你加完班回到家中,疲憊地躺在沙發(fā)上,隨口一句“打開電視”,沙發(fā)前的電視按命令開啟,然后一個溫柔的聲音問候你,“今天想看什么類型的電影?”或者主動向你推薦目前流行的一些影片。
這些都是語音識別所能夠處理的場景,雖然看似科幻,但是實際上這些場景已經(jīng)不再是以往人們的設(shè)想,正在悄悄地走進你我的生活。
2018 年,谷歌在開發(fā)者大會上演示了一個預(yù)約理發(fā)店的聊天機器人,語氣惟妙惟肖,表現(xiàn)相當令人驚艷。相信很多讀者都接到過人工智能的推銷電話,不去仔細分辨的話,根本不知道電話那頭只是一個能夠做出語音處理的聊天機器人程序。
“語音轉(zhuǎn)換”“人機對話”“機器人客服”是語音識別應(yīng)用廣泛的三部分,也是商業(yè)價值較高的一些方向。此外,還有看圖說話等一些帶有娛樂性質(zhì)的應(yīng)用。這些統(tǒng)統(tǒng)是語音識別技術(shù)的應(yīng)用。
語音識別通常稱為自動語音識別(Automatic Speech Recognition,ASR),主要是將人類語音中的詞匯內(nèi)容轉(zhuǎn)換為計算機可讀的輸入,一般都是可以理解的文本內(nèi)容,也有可能是二進制編碼或者字符序列。
語音識別是一項融合多學(xué)科知識的前沿技術(shù),覆蓋了數(shù)學(xué)與統(tǒng)計學(xué)、聲學(xué)與語言學(xué)、計算機與人工智能等基礎(chǔ)學(xué)科和前沿學(xué)科,是人機自然交互技術(shù)中的關(guān)鍵環(huán)節(jié)。但是,語音識別自誕生以來的半個多世紀,一直沒有在實際應(yīng)用過程得到普遍認可。一方面,語音識別技術(shù)存在缺陷,其識別精度和速度都達不到實際應(yīng)用的要求;另一方面,業(yè)界對語音識別的期望過高,實際上語音識別與鍵盤、鼠標或觸摸屏等應(yīng)該是融合關(guān)系,而非替代關(guān)系。
深度學(xué)習(xí)技術(shù)自 2015 年興起之后,已經(jīng)取得了長足進步。語音識別的精度和速度取決于實際應(yīng)用環(huán)境,但在安靜環(huán)境、標準口音、常見詞匯場景下的語音識別率已經(jīng)超過95%,意味著具備了與人類相仿的語言識別能力,而這也是語音識別技術(shù)當前發(fā)展比較火熱的原因。
隨著技術(shù)的發(fā)展,現(xiàn)在口音、方言、噪聲等場景下的語音識別也達到了可用狀態(tài),特別是遠場語音識別已經(jīng)隨著智能音箱的興起,成為全球消費電子領(lǐng)域應(yīng)用最成功的技術(shù)之一。由于語音交互提供了更自然、更便利、更高效的溝通形式,因此語音必定成為未來主要的人機互動接口之一。
當然,當前技術(shù)還存在很多不足,如對于強噪聲、超遠場、強干擾、多語種、大詞匯等場景下的語音識別還需要很大的提升;另外,多人語音識別和離線語音識別也是當前需要重點解決的問題。雖然語音識別還無法做到無限制領(lǐng)域、無限制人群的應(yīng)用,但是至少從應(yīng)用實踐中我們看到了一些希望。當然,實際上自然語言處理并不限于上文所說的這些,隨著人們對深度學(xué)習(xí)的了解,更多應(yīng)用正在不停地開發(fā)出來,相信讀者會親眼見證這一切的發(fā)生。
1993~2009年,語音識別一直處于高斯混合-隱馬爾科夫(GMM-HMM)時代,語音識別率提升緩慢,尤其是 2000~2009 年,語音識別率基本處于停滯狀態(tài);
2009年,隨著深度學(xué)習(xí)技術(shù),特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(DNN)的興起,語音識別框架變?yōu)檠h(huán)神經(jīng)網(wǎng)絡(luò)-隱馬爾科夫(DNN-HMM),并且使得語音識別進入了神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)時代,語音識別精準率得到了顯著提升;
2015年以后,由于“端到端”技術(shù)興起,語音識別進入了百花齊放時代,語音界都在訓(xùn)練更深、更復(fù)雜的網(wǎng)絡(luò),同時利用端到端技術(shù)進一步大幅提升了語音識別的性能,直到 2017 年,微軟在 Switchboard 上達到詞錯誤率 5.1%,從而讓語音識別的準確性首次超越了人類,當然這是在一定限定條件下的實驗結(jié)果,還不具有普遍代表性。
1) 高斯混合-隱馬爾科夫時代
20 世紀 70 年代,語音識別主要集中在小詞匯量、孤立詞識別方面,使用的方法也主要是簡單的模板匹配方法,即首先提取語音信號的特征構(gòu)建參數(shù)模板,然后將測試語音與參考模板參數(shù)一一進行比較和匹配,取距離最近的樣本所對應(yīng)的詞標注為該語音信號的發(fā)音。
該方法對解決孤立詞識別是有效的,但對于大詞匯量、非特定人的連續(xù)語音識別就無能為力。因此,進入 80 年代后,研究思路發(fā)生了重大變化,從傳統(tǒng)的基于模板匹配的技術(shù)思路開始轉(zhuǎn)向基于統(tǒng)計模型(HMM)的技術(shù)思路。
HMM 的理論基礎(chǔ)在 1970 年前后就已經(jīng)由 Baum 等人建立起來,隨后由 CMU 的 Baker 和 IBM 的 Jelinek 等人將其應(yīng)用到語音識別中。語音識別技術(shù)主要包括語音信號處理、聲學(xué)模型、語言模型和解碼器四大部分。其中,語音信號處理用于對原始語音數(shù)據(jù)進行預(yù)處理;聲學(xué)模型利用高斯混合模型、深度神經(jīng)網(wǎng)絡(luò)等方法建立音素到聲學(xué)特征的映射關(guān)系;語言模型則用于根據(jù)語法規(guī)則預(yù)測出可能的單詞序列;解碼器則根據(jù)聲學(xué)模型和語言模型的結(jié)果,對單詞序列進行后處理得到最終文本。