從大的方面來(lái)說(shuō)語(yǔ)音交互可以分為三大主線
掃描二維碼
隨時(shí)隨地手機(jī)看文章
(文章來(lái)源:百家號(hào))
? ? ? ?相信大家如今在用智能手機(jī)的時(shí)候,很多時(shí)候都會(huì)用語(yǔ)音助手來(lái)幫助自己。但其實(shí)你知道,如今大部分汽車的汽車語(yǔ)音交互主要是通過(guò)方向盤上喚醒語(yǔ)音識(shí)別的按鈕來(lái)開啟的,可問(wèn)題是現(xiàn)在的語(yǔ)音識(shí)別的準(zhǔn)確率并不高,還有很多問(wèn)題需要結(jié)局。,而要搞清楚語(yǔ)音識(shí)別在哪里出現(xiàn)問(wèn)題,首先需要了解整個(gè)語(yǔ)音交互的流程。從大的方面來(lái)說(shuō),語(yǔ)音交互可以分成語(yǔ)音識(shí)別、語(yǔ)義理解、語(yǔ)音合成三大主線。
在語(yǔ)音識(shí)別之前,首先需要做到語(yǔ)音喚醒,喚醒是人機(jī)交互的主要觸發(fā)方式,和跟一個(gè)人聊天首先要叫其名字是一個(gè)邏輯。機(jī)器被喚醒后,就需要知道說(shuō)話人的方位,才可以定向地拾音,解決噪聲、混響、回聲帶來(lái)的影響,同時(shí)對(duì)說(shuō)話人進(jìn)行語(yǔ)音增強(qiáng)。這個(gè)聲源定位和語(yǔ)音增強(qiáng)主要是用麥克風(fēng)陣列的相關(guān)技術(shù),要保證識(shí)別率滿足車載交互需求,還要有專門針對(duì)遠(yuǎn)場(chǎng)環(huán)境下基于大量數(shù)據(jù)訓(xùn)練的聲學(xué)模型,并解決人聲檢測(cè)和斷句問(wèn)題,過(guò)濾無(wú)效語(yǔ)音,做出快速響應(yīng)。
語(yǔ)音交互必須解鎖的第二項(xiàng)技能是語(yǔ)義理解。相對(duì)完美的語(yǔ)義理解,不是指導(dǎo)式的,而是不設(shè)定規(guī)則或者語(yǔ)法的自然對(duì)話的。在語(yǔ)音模型中,一般有專門的模塊去判斷語(yǔ)音命令里的意圖,在語(yǔ)句中尋找關(guān)鍵參數(shù)。意圖與參數(shù)就構(gòu)成了這條語(yǔ)音命令所要表達(dá)的信息。比如說(shuō)“我要去天安門”和“天安門在哪兒”對(duì)于系統(tǒng)來(lái)說(shuō)是一樣的語(yǔ)義,“天安門”是參數(shù),“在哪兒”和“要去”是意圖。當(dāng)然,這些模型并不需要人去手動(dòng)逐個(gè)建立,也是通過(guò)大量的數(shù)據(jù)模型去訓(xùn)練機(jī)器。
完成語(yǔ)音識(shí)別和語(yǔ)義的理解后,機(jī)器再通過(guò)語(yǔ)音合成,把信息傳遞給用戶,構(gòu)成一個(gè)完整的語(yǔ)音交互回合。雖然語(yǔ)音交互存在已達(dá)半個(gè)多世紀(jì),車機(jī)、后視鏡、HUD等硬件都在使用語(yǔ)音交互,但仍然體驗(yàn)不佳,這其中有識(shí)別的原因,也有語(yǔ)義理解的原因,還有諸如不能糾錯(cuò)、指令式交互體驗(yàn)乏味、操作復(fù)雜等原因。很多交互方案還是觸屏+部分語(yǔ)音的方式,不同應(yīng)用中內(nèi)置不同的語(yǔ)音方案,造成了操作的煩瑣;還有的缺乏語(yǔ)音喚醒,不能真正解放雙手。
總體而言,基于終端大規(guī)模數(shù)據(jù)的收集和深度學(xué)習(xí)技術(shù)的出現(xiàn)使語(yǔ)音技術(shù)逐漸走向成熟,更好的語(yǔ)音交互需要用到更大體量的數(shù)據(jù)集以及更好的語(yǔ)音模型。雖然要花費(fèi)的時(shí)間很多,但值得期待的是,語(yǔ)音識(shí)別叫醒耳朵只是第一步,當(dāng)機(jī)器慢慢能夠聽懂人類的話,下一步必定是能夠親口說(shuō)出“Hello World”,開啟真正的語(yǔ)音交互時(shí)代。