www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀] 在自然語言處理領(lǐng)域,深度學(xué)習(xí)將給予最大的幫助,深度學(xué)習(xí)方法主要依靠一下這五個關(guān)鍵優(yōu)勢,閱讀本文將進(jìn)一步了解自然語言處理的重要深度學(xué)習(xí)方法和應(yīng)用。 在自然語言處理領(lǐng)域,深度學(xué)習(xí)的承諾是:給

在自然語言處理領(lǐng)域,深度學(xué)習(xí)將給予最大的幫助,深度學(xué)習(xí)方法主要依靠一下這五個關(guān)鍵優(yōu)勢,閱讀本文將進(jìn)一步了解自然語言處理的重要深度學(xué)習(xí)方法和應(yīng)用。

在自然語言處理領(lǐng)域,深度學(xué)習(xí)的承諾是:給新模型帶來更好的性能,這些新模型可能需要更多數(shù)據(jù),但不再需要那么多的語言學(xué)專業(yè)知識。

關(guān)于深度學(xué)習(xí)方法有很多炒作和大話,但除了炒作之外,深度學(xué)習(xí)方法正在為挑戰(zhàn)性問題取得最先進(jìn)的結(jié)果,特別是在自然語言處理領(lǐng)域。

在這篇文章中,您將看到深度學(xué)習(xí)方法應(yīng)對自然語言處理問題的具體前景??赐赀@篇文章后,你會知道:

1. 自然語言處理深度學(xué)習(xí)的承諾。

2. 深度學(xué)習(xí)從業(yè)人員和研究科學(xué)家對自然語言處理深度學(xué)習(xí)的承諾有什么說法。

3. 自然語言處理的重要深度學(xué)習(xí)方法和應(yīng)用。

深度學(xué)習(xí)的承諾

深度學(xué)習(xí)的方法很受歡迎,主要是因?yàn)樗鼈儍冬F(xiàn)了當(dāng)初的承諾。

這并不是說在技術(shù)上沒有任何炒作,而是說,這種炒作是基于非常真實(shí)的成果。這些成果正在從計算機(jī)視覺和自然語言處理的一系列極具挑戰(zhàn)性的人工智能問題中得到證實(shí)。

深度學(xué)習(xí)力量的第一次大型展現(xiàn),就是在自然語言處理領(lǐng)域,特別是在語音識別方面。 最近的進(jìn)展則是在機(jī)器翻譯方面。

在這篇文章中,我們將看到,自然語言處理領(lǐng)域的深度學(xué)習(xí)方法的五個具體承諾。這些承諾是這個領(lǐng)域的研究人員和從業(yè)人者最近所強(qiáng)調(diào)的,而這些人面對這些承諾的態(tài)度比一般的新聞報道要克制得多。

總而言之,這些承諾是:

深度學(xué)習(xí)插入替換現(xiàn)有模型 。深度學(xué)習(xí)方法可以插入現(xiàn)有的自然語言系統(tǒng),由此產(chǎn)生的新模型可以實(shí)現(xiàn)同等或更好的性能。

新NLP模型 。深度學(xué)習(xí)方法提供了新的建模方法以挑戰(zhàn)自然語言問題(如序列-序列預(yù)測)。

特征學(xué)習(xí) 。深度學(xué)習(xí)方法可以從模型所需的自然語言中學(xué)習(xí)特征,而不需要專家指定、提取特征。、

持續(xù)改進(jìn)。自然語言處理中的深度學(xué)習(xí)的表現(xiàn)是基于真實(shí)世界的結(jié)果,并且所帶來的改進(jìn)正在持續(xù),還可能加速。

端對端模型 。大型端對端深度學(xué)習(xí)模型可以適應(yīng)自然語言問題,提供更一般和更好的方法。

我們現(xiàn)在將仔細(xì)看看這些承諾中的每一個。其實(shí)自然語言處理深度學(xué)習(xí)還有一些其他承諾;,這些只是我從中選擇的最突出的五個。

深度學(xué)習(xí)插入替換現(xiàn)有模型

自然語言處理中的深度學(xué)習(xí)的第一個承諾是,能夠用具有更好性能的模型替代現(xiàn)有的線性模型,能夠?qū)W習(xí)和利用非線性關(guān)系。

Yoav Goldberg在他的《NLP研究人員神經(jīng)網(wǎng)絡(luò)入門》中強(qiáng)調(diào),深度學(xué)習(xí)方法取得了令人印象深刻的成果,他說在此文中說:“最近,神經(jīng)網(wǎng)絡(luò)模型也開始應(yīng)用于文本自然語言信號,并再次帶來了非常有希望的結(jié)果。”

他還繼續(xù)強(qiáng)調(diào),這些方法易于使用,有時可用于批量地替代現(xiàn)有的線性方法。他說:“最近,該領(lǐng)域在從稀疏輸入的線性模型切換到稠密數(shù)據(jù)的非線性神經(jīng)網(wǎng)絡(luò)模型方面取得了一些成功。大多數(shù)神經(jīng)網(wǎng)絡(luò)技術(shù)都很容易應(yīng)用,有時候幾乎可以替代舊的線性分類器;不過,在許多情況下仍存在著使用神經(jīng)網(wǎng)絡(luò)的障礙。”

新NLP模型

另一個承諾是,深度學(xué)習(xí)方法有助于開發(fā)全新的模型。

一個很好的例子是,使用能夠?qū)W習(xí)和判斷超長序列輸出的循環(huán)神經(jīng)網(wǎng)絡(luò)。 這種方法與從前的完全不同,因?yàn)樗鼈冊试SNLP從業(yè)者擺脫傳統(tǒng)的建模假設(shè),并實(shí)現(xiàn)最先進(jìn)的結(jié)果。

Yoav Goldberg在其NLP深度學(xué)習(xí)的專著《自然語言處理的神經(jīng)網(wǎng)絡(luò)方法》第xvii頁指出,像循環(huán)神經(jīng)網(wǎng)絡(luò)這樣復(fù)雜神經(jīng)網(wǎng)絡(luò)模型可以帶來全新的NLP建模機(jī)會。他說,“在2014年左右,該領(lǐng)域已經(jīng)開始看到,在從稀疏輸入的線性模型到稠密輸入的非線性神經(jīng)網(wǎng)絡(luò)模型的轉(zhuǎn)換方面,已取得了一些成功。 。……其他的變化更高級,需要研究者改變思維,并能帶來新的建模機(jī)會。特別是,基于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNNs)的一系列方法減輕了對序列模型中普遍存在的馬爾可夫假設(shè)的依賴,允許以任意長序列為條件,并產(chǎn)生了有效的特征提取器。 這些進(jìn)步導(dǎo)致了語言建模、自動機(jī)器翻譯和其他應(yīng)用的突破。”

特征學(xué)習(xí)

深度學(xué)習(xí)方法具有學(xué)習(xí)特征表示的能力,不必要求專家從自然語言中人工指定和提取特征。

NLP研究員Chris Manning在自然語言處理深度學(xué)習(xí)課程的第一次講座中突出了這方面的觀點(diǎn)。

他描述了人工定義輸入特征的局限性:按照這種方法,在之前的應(yīng)用中,機(jī)器學(xué)習(xí)只是在統(tǒng)計NLP中證明人類事先定義的特征,并且計算機(jī)幾乎沒有學(xué)習(xí)。

Chris 認(rèn)為,深度學(xué)習(xí)方法帶來的承諾是自動特征學(xué)習(xí)。 他強(qiáng)調(diào),特征學(xué)習(xí)是自動的,而不是人工;它易于適應(yīng),不脆弱,并可以不斷自動地改善。

Chris Mining 在2017年的《自然語言處理與深度學(xué)習(xí)》講座第一講幻燈片中說,“一般來說,我們?nèi)斯ぴO(shè)計的特征往往被過度地指定,它們不完整,需要很長時間才能設(shè)計和驗(yàn)證,會讓你忙活一天后只能達(dá)到有限的性能水平。而深度學(xué)習(xí)到的特征易于適應(yīng),能快速訓(xùn)練,它們可以持續(xù)學(xué)習(xí),以便達(dá)到以前未能實(shí)現(xiàn)的、更好的性能水平。

持續(xù)改進(jìn)

NLP的深度學(xué)習(xí)的另一個承諾是,在挑戰(zhàn)性問題上持續(xù)快速改進(jìn)。

在《自然語言處理與深度學(xué)習(xí)》講座第一講中,Chris Manning表示,深度學(xué)習(xí)的方法很受歡迎,因?yàn)樗鼈兒芄苡谩Kf,“深度學(xué)習(xí)對大多數(shù)人來說如此令人興奮的真正原因是,它確實(shí)管用。“

他強(qiáng)調(diào),深度學(xué)習(xí)的初步結(jié)果令人印象深刻。深度學(xué)習(xí)在語音領(lǐng)域的表現(xiàn)比過去30年中任何其他方法的表現(xiàn)都更好。

Chris 提到,深度學(xué)習(xí)帶來的不僅是最先進(jìn)的成果,而且是不斷改進(jìn)的進(jìn)步速度。他說,”……在過去的六七年中,非常令人驚嘆的是,深度學(xué)習(xí)方法一直在不斷改進(jìn),并以驚人的速度變得更好。 我其實(shí)想說,這是前所未有的,我看到這個領(lǐng)域飛速地進(jìn)展,每個月都會推出更好的方法。“

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉