www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁 > 消費電子 > 消費電子
[導(dǎo)讀]語音識別相信大家并不陌生,近些年來語音識別技術(shù)的應(yīng)用層出不窮,同時也更加智能。

語音識別相信大家并不陌生,近些年來語音識別技術(shù)的應(yīng)用層出不窮,同時也更加智能。從開始我們簡單的詢問“你是誰”,到現(xiàn)在可以與我們進行多輪對話,理解我們的意思甚至是心情,語音識別已經(jīng)實現(xiàn)了長足的發(fā)展。可能大多數(shù)人覺得語音識別是近些年才出現(xiàn)的技術(shù),其實不然,下面讓我們一起從語音技術(shù)的歷史展開來看。

Part 01 語音識別近70年發(fā)展史

1952年,貝爾實驗室發(fā)明了自動數(shù)字識別機,科學(xué)家對智能語音有了模糊的概念,可能這時科學(xué)家們就已經(jīng)在暢想我們?nèi)缃駥崿F(xiàn)的這一切。

1964年,IBM在世界博覽會上推出了數(shù)字語音識別系統(tǒng),語音技術(shù)也自此走出了實驗室,為更多人知曉,貝爾實驗室的夢想也變成了更多人的夢想。

1980年,聲龍推出了第一款語音識別產(chǎn)品Dragon Dictate,這是第一款面向消費者的語音識別產(chǎn)品。雖然夢想第一次照進了現(xiàn)實,但其高達9000美元的售價,很大程度增加了智能語音技術(shù)的普及難度。

1997年,IBM推出它的第一個語音識別產(chǎn)品Via Voice。在中國市場,IBM適配了四川、上海、廣東等地方方言,Via Voice也真正的為更多消費者接觸、使用到。

2011年,蘋果首次在iphone4s上加入智能語音助手Siri。至此,智能語音與手機深度綁定,進入廣大消費者的日常生活。隨后國內(nèi)各大手機廠商也先后跟進,為手機消費者提供了五彩繽紛的語音識別功能。

此后,語音識別技術(shù)的應(yīng)用,并沒有局限于手機,而是擴展到了各種場景。從各種智能家居,如智能機器人、智能電視、智能加濕器等,到現(xiàn)在智能汽車,各大傳統(tǒng)廠商以及造車新勢力紛紛積極布局智能座艙??梢娭悄苷Z音技術(shù)已經(jīng)在我們的衣食住行各個方面得到了廣泛應(yīng)用。

Part 02 語音識別技術(shù)簡介

語音識別技術(shù),也被稱為自動語音識別(Automatic Speech Recognition,ASR),其目標(biāo)是將人類的語音中的詞匯內(nèi)容轉(zhuǎn)換為計算機可讀的輸入。語音識別技術(shù)屬于人工智能方向的一個重要分支,涉及許多學(xué)科,如信號處理、計算機科學(xué)、語言學(xué)、聲學(xué)、生理學(xué)、心理學(xué)等,是人機自然交互技術(shù)中的關(guān)鍵環(huán)節(jié)。

Part 03 語音識別基本流程

ASR:指自動語音識別技術(shù)(Automatic Speech Recognition),是一種將人的語音轉(zhuǎn)換為文本的技術(shù)。

NLU:自然語言理解(Natural Language Understanding, NLU)是所有支持機器理解文本內(nèi)容的方法模型或任務(wù)的總稱。

NLG:自然語言生成(Natural Language Generation,NLG)是一種通過計算機在特定交互目標(biāo)下生成語言文本的自動化過程,其主要目的是能夠自動化構(gòu)建高質(zhì)量的生成人類能夠理解的語言文本。

上圖展示了一個語音識別的基本流程,用戶發(fā)出指令后,mic收集音頻,完成聲音到波形圖的轉(zhuǎn)換,通過波形圖與人類發(fā)音的波形圖做對比,可以識別出說的具體音節(jié),通過音節(jié),組合成詞、句子,再結(jié)合大數(shù)據(jù)分析出說的最匹配的話,然后NLU模塊開始工作,分析出這句話的意圖(intent)、域(Domain)等各種信息。分析出意圖后開始對話管理DM(Dialog Manager),通過后臺數(shù)據(jù)查詢應(yīng)該給用戶什么反饋。然后交給NLG模塊,通過查出來的信息,生成自然語言,最后通過TTS模塊,將文字轉(zhuǎn)回成波形圖并播放聲音。

上面的流程涉及到的學(xué)科、知識都比較多,由于篇幅原因,不一一展開描述,在這里我節(jié)選出ASR來進行相對詳細些的學(xué)習(xí)。

Part 04 ASR實現(xiàn)原理簡單剖析

我們首先從ASR聲音源來看,當(dāng)一位用戶發(fā)出指令,比如說:我愛你。這時麥克風(fēng)會收集音頻到存儲設(shè)備。我們通過音頻處理軟件(如Audacity)打開后可以發(fā)現(xiàn)音頻是一段波形圖。

但是這段波形圖并沒有什么直觀的有意義的信息,它的高低只代表了聲音的大小,橫軸也僅僅是時間。語音識別本身是基于大數(shù)據(jù)的分析技術(shù),分析的基礎(chǔ)是數(shù)據(jù)的準(zhǔn)確,聲音大小和發(fā)音的時間長短很難有什么統(tǒng)計學(xué)的意義,所以此時我們需要對音頻進行處理。(這段波形圖是四句我愛你的波形圖)。

處理的一種常用方法是傅里葉變換,通過傅里葉變換,我們可以將時間維度的波形圖,轉(zhuǎn)換成頻率維度的波形圖。

語音識別技術(shù)的發(fā)展歷史可以追溯到20世紀(jì)50年代初期。在那個時候,人們開始嘗試將語音轉(zhuǎn)化為文本,以便于計算機的處理。隨著計算機技術(shù)的發(fā)展,語音識別技術(shù)也逐漸得到了改進和完善。本文將詳細介紹語音識別技術(shù)的發(fā)展歷史。

20世紀(jì)50年代初期,貝爾實驗室的研究人員開始嘗試將語音轉(zhuǎn)化為文本。他們使用了一種叫做“Audrey”的設(shè)備,通過對話框架來實現(xiàn)語音識別。這種設(shè)備仍然十分原始,只能夠識別一些簡單的單詞和數(shù)字。

20世紀(jì)60年代,語音識別技術(shù)得到了進一步的發(fā)展。美國國防部資助了一項名為“Harpy”的研究計劃,旨在開發(fā)一種可以識別語音的系統(tǒng)。Harpy系統(tǒng)可以識別1,011個單詞,但是其準(zhǔn)確率仍然較低。

20世紀(jì)70年代,語音識別技術(shù)得到了一些重大的進展。IBM公司開發(fā)了一種名為“Shoebox”的語音識別系統(tǒng),可以識別1,000個單詞。這種系統(tǒng)使用了一些新的技術(shù),如動態(tài)時間規(guī)整(DTW)等。

美國知名投資機構(gòu)Mangrove Capital Partners在《2019年語音技術(shù)報告》中,給語音下了一個宏大的定義——歡迎下一代的顛覆者。

可如果把時間倒退10年,大部分人還是會把“語音交互”定義為一場豪賭,都知道贏面比較大,卻遲遲不敢下注,因為概念的落地還沒有一個明確的期限,當(dāng)正確的路徑被走通之前,永遠都存在不確定性。

不過在此前的80年里,人類對語音技術(shù)的希望從未破滅,就像是在迷宮中找尋出口一般,一遍又一遍的試錯,最終找到了正確的路徑。

01 漫長的孩提時代“小度小度,明天天氣怎么樣?”“小度小度,我想聽周杰倫的歌” “小度小度,我想給爸爸打電話”,諸如這樣的指令每天有幾億次發(fā)生,哪怕是牙牙學(xué)語的孩子也可以和智能音箱進行流暢的對話。

但在50年前,就職于貝爾實驗室的約翰·皮爾斯卻在一封公開信中為語音識別下了“死亡診斷書”:就像是把水轉(zhuǎn)化為汽油、從海里提取金子、徹底治療癌癥,讓機器識別語音幾乎是不可能實現(xiàn)的事情。

彼時距離首個能夠處理合成語音的機器出現(xiàn)已經(jīng)過去30年的時間,距離發(fā)明出能夠聽懂從0到9語音數(shù)字的機器也過去了17個年頭。這兩項創(chuàng)造性的發(fā)明均出自貝爾實驗室,但語音識別技術(shù)的緩慢進展,幾乎消磨掉了所有人的耐心。

在20世紀(jì)的大部分時間里,語音識別技術(shù)就像是一場不知方向的長征,時間刻度被拉長到了10年之久:

上世紀(jì)60年代,時間規(guī)整機制、動態(tài)時間規(guī)整和音素動態(tài)跟蹤三個關(guān)鍵技術(shù)奠定了語音識別發(fā)展的基礎(chǔ);

上世紀(jì)70年代,語音識別進入了快速發(fā)展的階段,模式識別思想、動態(tài)規(guī)劃算法、線性預(yù)測編碼等開始應(yīng)用;

上世紀(jì)80年代,語音識別開始從孤立詞識別系統(tǒng)向大詞匯量連續(xù)語音識別系統(tǒng)發(fā)展,基于GMM-HMM的框架成為語音識別系統(tǒng)的主導(dǎo)框架;

上世紀(jì)90年代,出現(xiàn)了很多產(chǎn)品化的語音識別系統(tǒng),比如IBM的Via-vioce系統(tǒng)、微軟的Whisper系統(tǒng)、英國劍橋大學(xué)的HTK系統(tǒng);

但在進入21世紀(jì)后,語音識別系統(tǒng)的錯誤率依然很高,再次陷到漫長的瓶頸期。直到2006年Hiton提出用深度置信網(wǎng)絡(luò)初始化神經(jīng)網(wǎng)絡(luò),使得訓(xùn)練深層的神經(jīng)網(wǎng)絡(luò)變得容易,從而掀起了深度學(xué)習(xí)的浪潮。

只是在2009年之前70年左右的漫長歲月里,中國在語音識別技術(shù)上大多處于邊緣角色,1958年中國科學(xué)院聲學(xué)所利用電子管電路識別10個元音,1973年中國科學(xué)院聲學(xué)所開始了計算機語音識別,然后是863計劃開始開始組織語音識別技術(shù)的研究,直到百度、科大訊飛等中國企業(yè)的崛起。

02 躍進的少年時代2010年注定是語音識別的轉(zhuǎn)折點。

前一年Hinton和D.Mohamed將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用于語音的聲學(xué)建模,在小詞匯量連續(xù)語音識別數(shù)據(jù)庫TIMIT上獲得成功。

從2010年開始,微軟的俞棟、鄧力等學(xué)者首先嘗試將深度學(xué)習(xí)技術(shù)引入到語音識別領(lǐng)域,并確立了三個維度的標(biāo)準(zhǔn):

數(shù)據(jù)量的多少,取決于搜索量、使用量的規(guī)模;

算法的優(yōu)劣,頂級人才扮演者至關(guān)重要的角色;

計算力的水平,關(guān)鍵在于FPGA等硬件的發(fā)展。

在這三個維度的比拼中,誰擁有數(shù)據(jù)上的優(yōu)勢,誰聚集了頂級的人才,誰掌握著強大的計算能力,多半會成為這場較量中的優(yōu)勝方。于是在語音識別的“少年時代”,終于開始了躍進式的發(fā)展,刷新紀(jì)錄的時間間隔被壓縮到幾年到幾個月。

2016年語音識別的準(zhǔn)確率達到90%,但在這年晚些時候,微軟公開表示語音識別系統(tǒng)的詞錯率達到了5.9%,等同于人類速記同樣一段對話的水平,時任百度首席科學(xué)家吳恩達發(fā)聲稱百度在2015年末即達到了同等水平;2017年6月,Google表示語音識別的準(zhǔn)確率達到95%,而早在10個月前的時候,李彥宏就在百度世界大會上宣布了百度語音識別準(zhǔn)確率達到97%的消息。

一個有些“奇怪”的現(xiàn)象,為何在語音識別領(lǐng)域缺少前期積累的中國,可以在極短的時間內(nèi)實現(xiàn)從無到有,甚至有后發(fā)先至的趨勢?可以找到的原因有二:

首先,傳統(tǒng)專利池被挑戰(zhàn),競爭回歸技術(shù)。

語音識別進入深度學(xué)習(xí)時代,并沒有背負太多的專利包袱,中美玩家們有機會站在了同一起跑線上。

比如2013年百度的語音識別技術(shù)還主要基于mel-bank的子帶CNN模型;2014年就獨立發(fā)展出了Sequence Discriminative Training(區(qū)分度模型);2015年初推出基于LSTM –HMM的語音識別,年底發(fā)展出基于LSTM-CTC的端對端語音識別系統(tǒng);2016年和2017年將Deep CNN模型和 LSTM、CTC結(jié)合起來,2018年推出Deep Peak 2模型,2019年又發(fā)布了流式多級的截斷注意力模型……

而在不久前結(jié)束的百度AI開發(fā)者大會上,百度還推出了針對遠場語音交互的鴻鵠芯片,可以實現(xiàn)遠場陣列信號實時處理,高精度超低誤報語音喚醒以及離線語音識別。

其次,語音識別進入到生態(tài)化、產(chǎn)業(yè)化的時代。

在Google發(fā)布了語音開放API后,對Nuance產(chǎn)生了致命的打擊,不僅僅是Google在產(chǎn)品和技術(shù)上的優(yōu)勢,也來自于Google強大的人工智能技術(shù)生態(tài),例如以TensorFlow為代表的深度學(xué)習(xí)引擎。

聲明:該篇文章為本站原創(chuàng),未經(jīng)授權(quán)不予轉(zhuǎn)載,侵權(quán)必究。
換一批
延伸閱讀

近日,美國參議院公布了一項引人注目的國防政策方案,其中包含的“2025年國家人工智能保障準(zhǔn)入和創(chuàng)新法案”(簡稱GAIN AI法案)再次在全球科技領(lǐng)域掀起波瀾。

關(guān)鍵字: AI GPU

重慶2025年9月6日 /美通社/ -- iChongqing新聞報道:2025世界智能產(chǎn)業(yè)博覽會于9月5日在重慶開幕,550余家企業(yè)參展,展示了從自動駕駛和人工智能(AI)座艙到擴展現(xiàn)實(XR)影視和機器人咖啡廳的30...

關(guān)鍵字: 人工智能 新能源汽車 AI 機器人

慕尼黑2025年9月6日 /美通社/ -- 近日,廣汽正式推出全新增程技術(shù)——"星源增程"(英文名為ADiMOTION),全面提升增程器效率、動力響應(yīng)及NVH表現(xiàn),同時配合AI能量控制平臺,實現(xiàn)每一度...

關(guān)鍵字: 廣汽 AI 增程器 電機

北京2025年9月5日 /美通社/ -- 近日,2025年中瑞商業(yè)大獎頒獎典禮在北京舉行,SGS通標(biāo)標(biāo)準(zhǔn)技術(shù)服務(wù)有限公司(以下稱SGS通標(biāo))作為瑞士SGS在中國的分支機構(gòu)榮獲了傳承獎的殊榮。SGS通標(biāo)北京總經(jīng)理...

關(guān)鍵字: 可持續(xù)發(fā)展 ST AI ABILITY

北京2025年9月5日 /美通社/ -- 9月2日,濟南城市投資集團有限公司(簡稱"濟南城投")與軟通動力信息技術(shù)(集團)股份有限公司(簡稱"軟通動力")正式簽署戰(zhàn)略合作...

關(guān)鍵字: AI 數(shù)字經(jīng)濟 智能化 人工智能技術(shù)

中國鄭州2025年9月5日 /美通社/ --?全球領(lǐng)先的電動客車制造商宇通客車("宇通",上交所代碼:600066)全新升級的車聯(lián)網(wǎng)系統(tǒng)Link+采用先進技術(shù)實現(xiàn)車隊車輛與管理平臺的智能互聯(lián)。作為Vehicle+升級版,...

關(guān)鍵字: LINK 車聯(lián)網(wǎng) AI PS

大眾汽車集團加速推進生產(chǎn)數(shù)字化轉(zhuǎn)型 數(shù)字化生產(chǎn)平臺(Digital Production Platform)成為大眾汽車的"工廠云",在全球生產(chǎn)基地實現(xiàn)人工智能(AI)與前沿 IT...

關(guān)鍵字: 亞馬遜 大眾汽車 AI 數(shù)字化

北京2025年9月5日 /美通社/ -- 9月4日,在北京市人民政府新聞辦公室舉行的"一把手發(fā)布?京華巡禮"系列主題新聞發(fā)布會上,北京經(jīng)開區(qū)對外發(fā)布,北京經(jīng)濟技術(shù)開發(fā)區(qū)(簡稱"北京經(jīng)開區(qū)&q...

關(guān)鍵字: 人工智能 模型 開源 AI

RighValor現(xiàn)已基于Synaptics? Astra? SL1600系列SOC運行,提供隱私至上的實時邊緣智能。 加利福尼亞州帕洛阿爾托2025年9月5日 /美通社/ --?邊緣分布式代理AI先驅(qū)企業(yè)Righ今日...

關(guān)鍵字: 智能家居 SYNAPTICS AI ST

柏林2025年9月4日 /美通社/ -- 全球消費電子與家電領(lǐng)先品牌海信,將以AI Your Life為主題在IFA 2025呈現(xiàn)全線人工智能創(chuàng)新成果。從沉浸式娛樂、影院級畫質(zhì)到智能家居生活與氣候智能健康,海信將展示AI...

關(guān)鍵字: 海信 AI RGB MINILED
關(guān)閉