www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀] 最近幾年深度學(xué)習(xí)的流行,大家一般認(rèn)為是從2012年AlexNet在圖像識別領(lǐng)域的成功作為一個里程碑。AlexNet提升了整個業(yè)界對機(jī)器學(xué)習(xí)的接受程度:以前很多機(jī)器學(xué)習(xí)算法都處在“差不多能做dem

最近幾年深度學(xué)習(xí)的流行,大家一般認(rèn)為是從2012年AlexNet在圖像識別領(lǐng)域的成功作為一個里程碑。AlexNet提升了整個業(yè)界對機(jī)器學(xué)習(xí)的接受程度:以前很多機(jī)器學(xué)習(xí)算法都處在“差不多能做demo”的程度,但是AlexNet的效果跨過了很多應(yīng)用的門檻,造成了應(yīng)用領(lǐng)域井噴式的興趣。

當(dāng)然,任何事情都不是一蹴而就的,在2012年以前,很多成功的因素已經(jīng)開始逐漸顯現(xiàn):2009年的ImageNet數(shù)據(jù)庫奠定了大量標(biāo)注數(shù)據(jù)的基礎(chǔ);2010年開始,IDSIA的Dan Ciresan首次用GPGPU進(jìn)行物體識別;2011年,北京的ICDAR大會上,神經(jīng)網(wǎng)絡(luò)在中文離線識別上大放異彩。就算是AlexNet中用到的ReLU層,早在2001年神經(jīng)科學(xué)的文獻(xiàn)中就有提及過。所以,一定程度上說,神經(jīng)網(wǎng)絡(luò)的成功也是一個水到渠成的過程。2012年以后的事情,大家可以讀到很多,這里就不再贅述。

深度學(xué)習(xí)的成功與局限

在看待神經(jīng)網(wǎng)絡(luò)成功的同時,我們也要進(jìn)一步深挖其背后的理論背景和工程背景,為什么神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)在幾十年前失敗,但是現(xiàn)在卻成功了?它成功的原因是什么?而它的局限又在什么地方?我們這里只能片面地說幾個重點(diǎn):成功的原因,一點(diǎn)是大數(shù)據(jù),一點(diǎn)是高性能計算。局限的原因,一點(diǎn)是結(jié)構(gòu)化的理解,一點(diǎn)是小數(shù)據(jù)上的有效學(xué)習(xí)算法。

大量的數(shù)據(jù),比如說移動互聯(lián)網(wǎng)的興起,以及AWS這樣低成本獲得標(biāo)注數(shù)據(jù)的平臺,使機(jī)器學(xué)習(xí)算法得以打破數(shù)據(jù)的限制;由于GPGPU等高性能運(yùn)算的興起,又使得我們能夠在可以控制的時間內(nèi)(以天為單位甚至更短)進(jìn)行exaflop級別的計算,從而使得訓(xùn)練復(fù)雜網(wǎng)絡(luò)變得可能。要注意的是,高性能計算并不僅限于GPU,在CPU上的大量向量化計算,分布式計算中的MPI抽象,這些都和60年代就開始興起的HPC領(lǐng)域的研究成果密不可分。

但是,我們也要看到深度學(xué)習(xí)的局限性。今天,很多深度學(xué)習(xí)的算法還只是在感知這個層面上形成了突破,可以從語音、圖像,這些非結(jié)構(gòu)化的數(shù)據(jù)中進(jìn)行識別的工作。在面對更加結(jié)構(gòu)化的問題的時候,簡單地套用深度學(xué)習(xí)算法可能并不能達(dá)到很好的效果。有的同學(xué)可能會問為什么AlphaGo和Starcraft這樣的算法可以成功,一方面,深度學(xué)習(xí)解決了感知的問題,另一方面,我們也要看到還有很多傳統(tǒng)的非深度學(xué)習(xí)算法,比如說Q-learning和其他增強(qiáng)學(xué)習(xí)的算法,一起支撐起了整個系統(tǒng)。而且,在數(shù)據(jù)量非常小的時候,深度學(xué)習(xí)的復(fù)雜網(wǎng)絡(luò)往往無法取得很好的效果,但是很多領(lǐng)域,特別是類似醫(yī)療這樣的領(lǐng)域,數(shù)據(jù)是非常難獲得的,這可能是接下去的一個很有意義的科研方向。

接下去,深度學(xué)習(xí)或者更廣泛地說,AI這個方向會怎么走?我個人的感覺,雖然大家前幾年一直關(guān)注AI框架,但是近年來框架的同質(zhì)化說明了它不再是一個需要花大精力解決的問題,TensorFlow這樣的框架在工業(yè)界的廣泛應(yīng)用,以及各種框架利用Python在建模領(lǐng)域的優(yōu)秀表現(xiàn),已經(jīng)可以幫助我們解決很多以前需要自己編程實現(xiàn)的問題,因此,作為AI工程師,我們應(yīng)該跳出框架的桎梏,往更廣泛的領(lǐng)域?qū)ふ覂r值。

向上的挑戰(zhàn)

往上走,我們會遇到產(chǎn)品和科研的很多新挑戰(zhàn),比如說:

傳統(tǒng)的深度學(xué)習(xí)應(yīng)用,比如說語音、圖像等等,應(yīng)該如何輸出產(chǎn)品和價值?比如說,計算機(jī)視覺現(xiàn)在基本還是停留在安防這個層面上,如何深入到醫(yī)療、傳統(tǒng)工業(yè),甚至社會關(guān)愛(如何幫助盲人看見這個世界)這些領(lǐng)域?這不僅需要技術(shù)的思考,還需要產(chǎn)品的思考。

除了語音和圖像之外,如何解決更多問題?在阿里和很多互聯(lián)網(wǎng)企業(yè)中有一個“沉默的大多數(shù)”的應(yīng)用,就是推薦系統(tǒng):它常常占據(jù)了超過80%甚至90%的機(jī)器學(xué)習(xí)算力,如何將深度學(xué)習(xí)和傳統(tǒng)推薦系統(tǒng)進(jìn)一步整合,如何尋找新的模型,如何對搜索和推薦的效果建模,這些可能沒有像語音和圖像那么為人所知,卻是公司不可缺少的技能。

即使在科研方向,我們的挑戰(zhàn)也剛剛開始:Berkeley的教授Jitendra Malik曾經(jīng)說:“我們以前是手工調(diào)算法,現(xiàn)在是手工調(diào)網(wǎng)絡(luò)架構(gòu),如果囿于這種模式,那人工智能無法進(jìn)步”。如何走出手工調(diào)參的老路,用智能提升智能,是個非常有意思的問題。最開始的AutoML系統(tǒng)依然停留在用大量算力暴力搜索模型結(jié)構(gòu)的層面上,但是現(xiàn)在各種更高效的AutoML技術(shù)開始產(chǎn)生,這是值得關(guān)注的。

向下的機(jī)會

往下走,我們會發(fā)現(xiàn)傳統(tǒng)的系統(tǒng)、體系結(jié)構(gòu)等知識,計算機(jī)軟件工程的實踐,會給AI帶來很多新的機(jī)會,比如說:

傳統(tǒng)的AI框架都是手寫高性能代碼,但是模型如此多變,新的硬件平臺層出不窮,我們應(yīng)該如何進(jìn)一步提升軟件效率?我們已經(jīng)看到有通過編譯器技術(shù)和傳統(tǒng)的人工智能搜索方法來反過來優(yōu)化AI框架,比如Google的XLA和華盛頓大學(xué)的TVM,這些項目雖然處于早期,但是已經(jīng)展現(xiàn)出它們的潛力。

平臺如何提升整合能力?在開源領(lǐng)域,大家的做法是一個人,一臺機(jī)器,幾個GPU,訓(xùn)練比較學(xué)院派的模型。但是在大規(guī)模應(yīng)用中,我們的數(shù)據(jù)量非常大,模型非常復(fù)雜,集群還會出現(xiàn)各種調(diào)度的挑戰(zhàn)(能不能一下子就要求256個GPU?計算資源是否可以彈性調(diào)度?),這些對于我們自己的機(jī)器學(xué)習(xí)平臺,以及云上向客戶提供的服務(wù),都提出了非常多的挑戰(zhàn)。

如何進(jìn)行軟硬件的協(xié)同設(shè)計?在深度學(xué)習(xí)的計算模式開始逐漸固化的時候(比如說CNN),新硬件和特殊硬件(比如ASIC)的優(yōu)勢就開始體現(xiàn)出來了。如何實現(xiàn)軟硬件的協(xié)同設(shè)計,防止“硬件出來了,不知道怎么寫程序”或者“模型已經(jīng)變了,硬件一出來就過時了”這樣的問題,會是將來幾年中很大的方向。

人工智能是一個日新月異的領(lǐng)域,我們有一個笑話是這樣說的:2012年的科研成果,現(xiàn)在說起來都已經(jīng)是上古時代的故事了。快速的迭代帶來的大量機(jī)遇和挑戰(zhàn)是非常令人興奮的,無論是有經(jīng)驗的研究者還是新學(xué)AI的工程師,在當(dāng)今云化、智能化的年代,如果能快速學(xué)習(xí)并刷新算法和工程的各種挑戰(zhàn),就可以通過算法創(chuàng)新引領(lǐng)并且賦能社會各個領(lǐng)域。這方面,人工智能領(lǐng)域開源開放的各種代碼,科研文章和平臺給大家創(chuàng)造了比以前更容易的入門門檻,機(jī)遇都掌握在我們自己手中。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉