www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當前位置:首頁 > 芯聞號 > 充電吧
[導(dǎo)讀]近期熱門的話題, 人們開始重新討論這一基本定義----什么是人工智能(AI)。有些人將 AI 重新命名為「認知計算」或「機器智能」,而其他人則錯誤地將 AI 與「機器學(xué)習」概念進行交換。在某種程度上,

近期熱門的話題, 人們開始重新討論這一基本定義----什么是人工智能(AI)。有些人將 AI 重新命名為「認知計算」或「機器智能」,而其他人則錯誤地將 AI 與「機器學(xué)習」概念進行交換。在某種程度上,這是因為 AI 不是一種技術(shù)。它實際上是一個由許多學(xué)科組成的廣泛領(lǐng)域,從機器人學(xué)到機器學(xué)習。我們大多數(shù)人都認為,人工智能的終極目標是為了建造能夠完成任務(wù)和認知功能的機器,否則這些機器只能在人類的智能范圍內(nèi)從事相關(guān)工作。為了實現(xiàn)這一目標,機器必須能夠自主學(xué)習這些能力,而不是讓每個功能都被端到端地明確編程。

人工智能領(lǐng)域在過去十年中取得了巨大進步,從自動駕駛汽車到語音識別及合成,這一點令人驚訝。在這種背景下,人工智能已經(jīng)成為越來越多公司和家庭的話題,他們不再將人工智能視為一種需要 20 年時間開發(fā)的技術(shù),而是影響他們今天生活的東西。事實上,流行的新聞報道幾乎每天都會報道 AI 和技術(shù)巨頭,闡述他們重要的長期人工智能策略。雖然一些投資者和老牌企業(yè)都渴望了解如何在這個新世界中攫取價值,但大多數(shù)人仍在摸索著想出這一切意味著什么。與此同時,各國政府正在努力應(yīng)對自動化在社會中的影響。

鑒于 AI 將影響整個經(jīng)濟,而這些討論中的參與者代表了社會上觀點的整體分布、理解水平以及構(gòu)建或使用 AI 系統(tǒng)的經(jīng)驗程度。因此,對人工智能的討論至關(guān)重要—包括由此產(chǎn)生的問題、結(jié)論和建議—必須以數(shù)據(jù)和現(xiàn)實為基礎(chǔ),而不是猜想,這點至關(guān)重要。畢竟各種民間大V從公布的研究、科技新聞公告、投機評論和思想實驗中大肆推斷其中的含義,這太容易了(有時令人興奮?。?。

尤其值得注意人工智能的六個領(lǐng)域在影響數(shù)字產(chǎn)品和服務(wù)的未來方面產(chǎn)生的作用。我將會闡述它們分別是什么、為什么它們很重要、它們今天如何被使用,并列出了從事這些技術(shù)的公司和研究人員的清單(并非詳盡無遺)。

1、強化學(xué)習(RL)

RL 是一種通過試錯來學(xué)習的范例,這種反復(fù)試錯受到人類學(xué)習新任務(wù)的方式啟發(fā)。在典型的 RL 設(shè)置中,智能體的任務(wù)是在數(shù)字環(huán)境中觀察其當前狀態(tài)并采取最大化其已設(shè)置的長期獎勵的累積的動作。 該智能體接收來自環(huán)境的每個動作結(jié)果的反饋,以便它知道該動作是否促進或阻礙其進展。因此,RL 的 智能體必須平衡對其環(huán)境的探索,以找到獲得獎勵的最佳策略,并利用其發(fā)現(xiàn)的最佳策略來實現(xiàn)預(yù)期目標。這種方法在 Google DeepMind 的 Atari 游戲和 Go 中(https://www.youtube.com/watch?v=Ih8EfvOzBOY)非常流行。RL 在現(xiàn)實世界中工作的一個例子是優(yōu)化能源效率以冷卻 Google 數(shù)據(jù)中心。在此項目中,RL 使得該系統(tǒng)的冷卻成本降低了 40%。在可以模擬的環(huán)境(例如視頻游戲)中使用 RL 智能體的一個重要的原生優(yōu)勢是訓(xùn)練數(shù)據(jù)可以以非常低的成本生成。這與監(jiān)督式的深度學(xué)習任務(wù)形成鮮明對比,后者通常需要昂貴且難以從現(xiàn)實世界中獲取的訓(xùn)練數(shù)據(jù)。

應(yīng)用程序:多個智能體在他們自己的環(huán)境實例中學(xué)習共享模型,或者通過在同一環(huán)境中相互交互和學(xué)習,學(xué)習在迷宮或城市街道等 3D 環(huán)境中進行自動駕駛,通過學(xué)習任務(wù)目標(例如學(xué)習駕駛或賦予非玩家視頻游戲角色以類似人的行為)反向強化學(xué)習以概括觀察到的行為。頂尖專業(yè):Pieter Abbeel(OpenAI),David Silver,Nando de Freitas,Raia Hadsell,Marc Bellemare(谷歌 DeepMind),Carl Rasmussen(劍橋),Rich Sutton(阿爾伯塔大學(xué)),John Shawe-Taylor(UCL)等。代表公司:Google DeepMind,Prowler.io,Osaro,MicroPSI,Maluuba / Microsoft,NVIDIA,Mobileye,OpenAI。

2、生成模型

與用于分類或回歸任務(wù)的判別模型不同,生成模型學(xué)習訓(xùn)練樣本的概率分布。通過從這種高維分布中抽樣,生成模型輸出與訓(xùn)練數(shù)據(jù)類似的新例子。這意味著,例如,在面部的真實圖像上訓(xùn)練的生成模型可以輸出相似面部的新合成圖像。有關(guān)這些模型如何工作的更多詳細信息,請參閱 Ian Goodfellow 的 NIPS 2016 指導(dǎo)手冊(https://arxiv.org/abs/1701.00160)。他引入的架構(gòu),生成對抗網(wǎng)絡(luò)(GAN),現(xiàn)在在研究領(lǐng)域特別熱門,因為它們?yōu)闊o監(jiān)督學(xué)習提供了一條道路。對于 GAN,有兩個神經(jīng)網(wǎng)絡(luò):一個生成器,它將隨機噪聲作為輸入,負責合成內(nèi)容(例如一個圖像),一個鑒別器,它了解了真實圖像的樣子,并負責識別生成器生成的圖像是真實的還是偽造的。對抗訓(xùn)練可以被認為是一種游戲,其中生成器必須迭代地學(xué)習如何從噪聲創(chuàng)建圖像,使得鑒別器不再能夠?qū)⑸傻膱D像與真實的圖像區(qū)分開。該框架正在擴展到許多數(shù)據(jù)模式和任務(wù)。

應(yīng)用范圍:模擬時間序列的可能未來(例如,用于強化學(xué)習中的規(guī)劃任務(wù));超分辨率圖像;從 2D 圖像重建 3D 結(jié)構(gòu); 從小標記數(shù)據(jù)集推廣;一個輸入可以產(chǎn)生多個正確輸出的任務(wù)(例如,預(yù)測視頻 0 中的下一幀;在會話界面中運用自然語言處理(例如機器人);加密;當不是所有標簽都可用時運用半監(jiān)督學(xué)習;藝術(shù)風格轉(zhuǎn)移;合成音樂和聲音;圖像修復(fù)。代表公司:Twitter Cortex,Adobe,Apple,Prisma,Jukedeck*,Creative.ai,Gluru*,Mapillary*,Unbabel。頂尖專家:Ian Goodfellow (OpenAI),Yann LeCun and Soumith Chintala (Facebook AI Research),Shakir Mohamed and A?ron van den Oord (Google DeepMind),Alyosha Efros (Berkeley) and manyothers。

3、記憶網(wǎng)絡(luò)

為了讓 AI 系統(tǒng)像我們一樣在不同的環(huán)境中都能得到適用,他們必須能夠不斷學(xué)習新任務(wù)并記住如何在未來完成所有任務(wù)。然而,傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)通常不能進行這種連續(xù)的任務(wù)學(xué)習。這個缺點被稱為災(zāi)難性遺忘。之所以出現(xiàn)這種情況,是因為當網(wǎng)絡(luò)隨后經(jīng)過訓(xùn)練以解決任務(wù) B 時,網(wǎng)絡(luò)中對于任務(wù) A 來說很重要的權(quán)重會發(fā)生變化。

然而,有幾種強大的架構(gòu)可以賦予神經(jīng)網(wǎng)絡(luò)不同程度的記憶性。這些包括能夠處理和預(yù)測時間序列的長短期記憶網(wǎng)絡(luò)(遞歸神經(jīng)網(wǎng)絡(luò)的一種變體),DeepMind 的可微分神經(jīng)計算機,它結(jié)合了神經(jīng)網(wǎng)絡(luò)和記憶系統(tǒng),以便自己學(xué)習和導(dǎo)航復(fù)雜的數(shù)據(jù)結(jié)構(gòu),彈性權(quán)重合并算法,根據(jù)它們對先前看到的任務(wù)的重要程度,減慢對某些權(quán)重的學(xué)習,以及學(xué)習特定任務(wù)的模型之間的橫向連接的漸進式神經(jīng)網(wǎng)絡(luò),以從先前學(xué)習的網(wǎng)絡(luò)中為新任務(wù)提取有用的特征。

應(yīng)用范圍:可以推廣到新環(huán)境的學(xué)習智能體;機器人手臂控制系統(tǒng);自動駕駛汽車;時間序列預(yù)測(例如金融市場、視頻、物聯(lián)網(wǎng)); 自然語言處理和下一步預(yù)測。代表公司:Google DeepMind,NNaisense,SwiftKey/Microsoft Research,F(xiàn)acebook AI Research。頂尖專家:Alex Graves,Raia Hadsell,Koray Kavukcuoglu(Google DeepMind),Jürgen Schmidhuber(IDSIA),Geoffrey Hinton(Google Brain/Toronto),James Weston,Sumit Chopra,Antoine Bordes(FAIR)。

4、從較少數(shù)據(jù)學(xué)習并構(gòu)建更小的模型

深度學(xué)習模型值得注意的是需要大量的訓(xùn)練數(shù)據(jù)才能達到最先進的性能。例如,ImageNet 大規(guī)模視覺識別挑戰(zhàn)賽中,每支隊伍需要挑戰(zhàn)他們的圖像識別模型,包含 120 萬個手工標記 1000 個對象類別的訓(xùn)練圖像。如果沒有大規(guī)模的訓(xùn)練數(shù)據(jù),深度學(xué)習模型將無法收斂于其最佳設(shè)置,并且在語音識別或機器翻譯等復(fù)雜任務(wù)上表現(xiàn)不佳。只有當單個神經(jīng)網(wǎng)絡(luò)用于端到端解決問題時,此數(shù)據(jù)要求才會增長;也就是說,將語音的原始錄音作為輸入并輸出語音的文本轉(zhuǎn)錄。這與使用多個網(wǎng)絡(luò)形成對比,每個網(wǎng)絡(luò)各自提供中間表示(例如,原始語音音頻輸入→音位→單詞→文本轉(zhuǎn)錄輸出;或來自直接映射到轉(zhuǎn)向命令的相機的原始圖像)。如果我們希望 AI 系統(tǒng)能夠解決訓(xùn)練數(shù)據(jù)特別具有挑戰(zhàn)性、成本高、敏感或耗時的任務(wù),那么開發(fā)能夠從較少的樣本(即一次或零次學(xué)習)學(xué)習最佳解決方案的模型非常重要。在對小型數(shù)據(jù)集進行培訓(xùn)時,難點包括過度擬合,處理異常值的困難,訓(xùn)練和測試之間數(shù)據(jù)分布的差異。另一種方法是通過使用統(tǒng)稱為遷移學(xué)習的過程來遷移從先前任務(wù)獲得的機器學(xué)習模型的知識來改進新任務(wù)的學(xué)習。

一個相關(guān)的問題是使用類似數(shù)量或明顯更少的參數(shù)構(gòu)建具有最先進性能的較小的深度學(xué)習架構(gòu)。優(yōu)點包括更高效的分布式培訓(xùn),因為數(shù)據(jù)需要在服務(wù)器之間進行通信,將新模型從云端導(dǎo)出到外圍設(shè)備的帶寬更少,以及部署到內(nèi)存有限的硬件的可行性得到提高。

應(yīng)用范圍:通過學(xué)習模擬最初訓(xùn)練大型標記訓(xùn)練數(shù)據(jù)的深層網(wǎng)絡(luò)的性能來訓(xùn)練淺層網(wǎng)絡(luò);具有較少參數(shù)但與深度模型具有相同性能的架構(gòu)(例如?SqueezeNet);機器翻譯。代表企業(yè): Geometric Intelligence/Uber,DeepScale.ai,Microsoft Research,Curious AI Company,Google,Bloomsbury AI。頂尖專家: Zoubin Ghahramani(Cambridge),Yoshua Bengio(Montreal),Josh Tenenbaum(MIT),Brendan Lake(NYU),Oriol Vinyals(Google DeepMind),Sebastian Riedel(UCL)。

5、用于訓(xùn)練和預(yù)測的硬件

人工智能進步的主要催化劑是重新利用圖形處理單元(GPU)來訓(xùn)練大型神經(jīng)網(wǎng)絡(luò)模型。與以順序方式計算的中央處理單元(CPU)不同,GPU 提供可以同時處理多個任務(wù)的大規(guī)模并行架構(gòu)。鑒于神經(jīng)網(wǎng)絡(luò)必須處理大量(通常是高維數(shù)據(jù)),GPU 上的訓(xùn)練要比使用 CPU 快得多。這就是為什么自 2012 年 AlexNet 發(fā)布以來 GPU 已經(jīng)真正成為淘金熱的原因 - 這是 GPU 上實現(xiàn)的第一個神經(jīng)網(wǎng)絡(luò)。在 2017 年 NVIDIA 繼續(xù)領(lǐng)先于英特爾,高通,AMD 以及谷歌。

但是,GPU 不是專門用于訓(xùn)練或預(yù)測的;它們是為了呈現(xiàn)視頻游戲的圖形而創(chuàng)建的。 GPU具有高計算精度,但并不總是需要,并且存在內(nèi)存帶寬和數(shù)據(jù)吞吐量問題。這為像 Google 這樣的大公司的新一代初創(chuàng)項目開辟了公平的競爭環(huán)境,專門為高維機器學(xué)習應(yīng)用設(shè)計和生產(chǎn)芯片。新芯片設(shè)計承諾的改進包括更大的內(nèi)存帶寬,圖形而非矢量(GPU)或標量(CPU)計算,更高的計算密度,效率和耗能性能。這是令人興奮的,因為 AI 系統(tǒng)為其所有者和用戶提供了明顯的加速回報:更快,更高效的模型培訓(xùn)→更好的用戶體驗→用戶更多地參與產(chǎn)品→創(chuàng)建更大的數(shù)據(jù)集→通過優(yōu)化提高模型性能。因此,能夠更快地訓(xùn)練并部署計算和能量效率的 AI 模型的人會占據(jù)顯著的優(yōu)勢。

應(yīng)用范圍:加快模型訓(xùn)練(特別是圖表);預(yù)測能源和數(shù)據(jù)效率;在外圍運行 AI 系統(tǒng)(物聯(lián)網(wǎng)設(shè)備);實時活動的 IoT 設(shè)備;云基礎(chǔ)服務(wù); 自動駕駛汽車,無人機和機器人。代表企業(yè): Graphcore,Cerebras,Isocline Engineering,Google(TPU),NVIDIA(DGX-1),Nervana Systems(Intel),Movidius(Intel),Scortex。

6、仿真環(huán)境

如前所述,為 AI 系統(tǒng)生成訓(xùn)練數(shù)據(jù)通常具有挑戰(zhàn)性。 更重要的是,如果 AI 在現(xiàn)實世界中對我們有用,那么它必須可以推廣到很多情況。 因此,開發(fā)模擬現(xiàn)實世界的物理和行為的數(shù)字環(huán)境將為我們提供測試和訓(xùn)練 AI 的一般智能的測試平臺。 這些環(huán)境向 AI 呈現(xiàn)初始情況,然后 AI 采取行動以解決他們已設(shè)置(或?qū)W習)的目標。 在這些模擬環(huán)境中進行訓(xùn)練可以幫助我們了解 AI 系統(tǒng)如何學(xué)習,如何改進它們,同時也為我們提供可能轉(zhuǎn)移到實際應(yīng)用程序的模型。

應(yīng)用范圍:駕駛技能學(xué)習;制造業(yè);工業(yè)設(shè)計;游戲開發(fā);智慧城市。代表企業(yè): Improbable,Unity 3D, Microsoft(Minecraft),Google DeepMind/Blizzard,OpenAI,Comma.ai,Unreal Engine,Amazon Lumberyard。

專家:Andrea Vedaldi(Oxford)。

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉