www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀] 計算機算力的增強為人工智能發(fā)展鋪平了道路。 通過強大的云計算平臺,人工智能研究人員已經(jīng)能夠在較短的時間訓(xùn)練更復(fù)雜的神經(jīng)網(wǎng)絡(luò),這使得AI能夠在計算機視覺、語音識別和自然語言處理等許多領(lǐng)域取

計算機算力的增強為人工智能發(fā)展鋪平了道路。

通過強大的云計算平臺,人工智能研究人員已經(jīng)能夠在較短的時間訓(xùn)練更復(fù)雜的神經(jīng)網(wǎng)絡(luò),這使得AI能夠在計算機視覺、語音識別和自然語言處理等許多領(lǐng)域取得進展。

與此同時,很少有人提及這一趨勢對AI研究的負面意義。

目前,人工智能的進步主要體現(xiàn)在對深度學(xué)習(xí)模型和更多層和參數(shù)的神經(jīng)網(wǎng)絡(luò)的研究。根據(jù)OpenAI的說法,自2012年以來最大規(guī)模人工智能訓(xùn)練中使用的計算機數(shù)量一直呈指數(shù)增長,大概每3到4個月就翻一番,這意味著該指標(biāo)在七年內(nèi)增長了30萬倍。

這種趨勢嚴重限制了AI的研究,也產(chǎn)生了其他不好的影響。

目前來說,“大”即是好

OpenAI研究人員表示,當(dāng)前許多領(lǐng)域中,更大的算力代表著更好的表現(xiàn),并且通常也是對算法的補充。

我們可以在很多項目中看到,研究人員將取得的進步歸功于他們投入了更多的計算機去處理問題。

2018年6月,OpenAI推出了能夠玩Dota2專業(yè)水準(zhǔn)的AI,Dota2是一款復(fù)雜的即時戰(zhàn)略游戲。

該AI叫OpenAIFive,它參加了一場大型的電子競技比賽,但在決賽中輸給了人類玩家。

OpenAI研究室今年推出的改良版本Open Five回歸賽季,最終戰(zhàn)勝了人類選手獲得冠軍。AI相關(guān)研究人員透露說,與周六在Open International 2018的失利相比,Open Five的勝利主要歸功于8倍的訓(xùn)練計算量。

還有很多類似的例子表明,通過增加計算量可以更好的計算結(jié)果,這種方法對強化學(xué)習(xí)來說這確實是對的。目前,強化學(xué)習(xí)也是AI研究領(lǐng)域最熱門的方向之一。

訓(xùn)練大型AI模型的財務(wù)成本

財務(wù)成本直接影響了訓(xùn)練AI模型。OpenAI網(wǎng)站上的圖表顯示,該公司以1,800 petaflop/s-days的速度訓(xùn)練DeepMind的圍棋AI——AlphaGoZero。

Flop代表浮點運算,petaflop/s-day (pfs-day)表示每天1020次運算。Google的TPU v3處理器是一個專門用于人工智能任務(wù)的處理器,它每天可以處理0.42 1020次運算,它每個小時花費2.4至8美元。這意味著大概需要246,800至822,800美元訓(xùn)練AlphaGo模型,并且這個只是單純的計算操作的成本。

這一領(lǐng)域的其他顯著成就也付出了類似的代價,例如,根據(jù)DeepMind發(fā)布的數(shù)據(jù),它旗下的玩星際爭霸AI由18部分組成,每一部分都使用16個Google的TPU v3處理器訓(xùn)練了14天,這意味著按照目前的價格水平,這家公司花費了77.4萬美元訓(xùn)練玩星球爭霸的人工智能。

AI研究的商業(yè)化

人工智能的計算需求對進入該領(lǐng)域的公司來說是一大門檻。

總部位于英國的著名人工智能實驗室DeepMind的成功主要是因為其母公司谷歌的巨大的資源投入。2014年,谷歌以6.5億美金收購DeepMind后,為其提供了足夠的資金支持和技術(shù)幫助。根據(jù)DeepMind向英國公司注冊處提交的文件顯示,今年早些時候,DeepMind在2018年虧損5.7億美金,高于2017年的3.41億美金。DeepMind今年還欠10.4億英鎊債券,其中8.83億英鎊來自Alphabet。

另一個是“燒錢大戶”是OpenAI。它最初是一個非盈利性人工智能研究實驗室,2016年獲得了薩姆?奧爾特曼和埃隆?馬斯克10億美元的資助。今年早些時候,OpenAI轉(zhuǎn)型為盈利性人工智能研究實驗室,以吸收投資者的資金。該實驗室支持其研究的資金已所剩無幾,今年微軟又宣布將在實驗室投資10億美元。

正如當(dāng)前趨勢所示,由于AI研究(特別是強化學(xué)習(xí))的成本,使得這些實驗室變得越來越依賴于有錢的公司,例如谷歌和微軟。

這種趨勢迫使人工智能研究商業(yè)化。隨著商業(yè)組織在為AI研究實驗室提供資金方面變得越來越重要,它們甚至可以影響研究方向。目前,像谷歌和微軟這樣的公司可以承受運行DeepMind和OpenAI等AI研究實驗室的財務(wù)費用,但是他們也希望在不久的將來獲得利潤。

問題是,OpenAI和DeepMind都在追求諸如通用人工智能(AGI)之類的科學(xué)項目。這是人類尚未完全理解的領(lǐng)域,更不用說實現(xiàn)了。大多數(shù)科學(xué)家都認為目前人類距實現(xiàn)通用人工智能至少還要一個世紀(jì)的時間,這樣的時間表使得最富有公司的耐心也得到了考驗。

對于AI研究實驗室來說,一種可能的情況是逐漸將目標(biāo)從長期的學(xué)術(shù)和科學(xué)研究轉(zhuǎn)向能短期收益的面向商業(yè)的項目,這將使他們的投資者高興,但總體上卻不利于AI研究。

OpenAI研究人員表示:“我們對未來AI系統(tǒng)中計算機的使用非常不確定,但是也很難斷言算力快速增長的趨勢會停止,而且我們也看到了很多因素導(dǎo)致這種趨勢將繼續(xù)下去。根據(jù)這一分析,我們認為決策者應(yīng)該考慮增加AI學(xué)術(shù)研究經(jīng)費,顯而易見的是某些類型的AI研究所需的算力正在變得更高,因此費用會越來越高。”

AI研究的碳排放

訓(xùn)練大型人工智能模型所需的計算資源消耗了大量的能源,這也造成了碳排放問題。

根據(jù)馬薩諸塞大學(xué)阿默斯特分校的研究人員發(fā)表的一篇論文,訓(xùn)練一個帶有2.13億個參數(shù)的Transformer模型(常用于與語言相關(guān)的任務(wù))所造成的污染相當(dāng)于5輛汽車開到報廢的排放總量。Google著名的BERT語言模型和OpenAI的GPT-2分別有3.4億和15億個參數(shù)。

鑒于目前的AI研究被“越大越好”的口號所主導(dǎo),人們對環(huán)境的擔(dān)憂只會日益加重。不幸的是,人工智能研究者很少報道或關(guān)注他們工作的這些方面。麻省理工大學(xué)的研究人員建議人工智能論文要公開他們的模型的環(huán)境成本,并讓公眾更好地了解他們的研究對環(huán)境的影響。

人工智能領(lǐng)域的慘痛教訓(xùn)

對更大更復(fù)雜的神經(jīng)網(wǎng)絡(luò)的最后一個擔(dān)憂,是它可能對AI研究的方向產(chǎn)生負面影響。目前,AI中一些障礙主要是通過使用更多數(shù)據(jù)并進行訓(xùn)練來解決。與此同時,就人類大腦和AI處理一些相同的最簡單的任務(wù)來說,大腦所消耗的能量相比AI這小得多。

過于依賴不斷增加的算力,可能會使我們無法找到更有效的新的人工智能解決方案。

將神經(jīng)網(wǎng)絡(luò)和符號派人工智能相結(jié)合的混合人工智能模型的開發(fā)是這一領(lǐng)域的一項有趣的領(lǐng)域。符號人工智能是經(jīng)典的、基于規(guī)則的人工智能,與神經(jīng)網(wǎng)絡(luò)不同,符號派人工智能不是通過增加計算資源和數(shù)據(jù)來擴展的。它也很難處理現(xiàn)實世界中混亂的、非結(jié)構(gòu)化的數(shù)據(jù),但它在知識表示和推理方面非常出色,而這兩個優(yōu)勢是神經(jīng)網(wǎng)絡(luò)嚴重缺乏的。探索混合人工智能的想法可能會為發(fā)明資源效率更高的人工智能開辟新的途徑。

在此,我們不加贅述。感興趣的讀者可以閱讀加里馬庫斯和歐內(nèi)斯特戴維斯的新書《重啟人工智能》(RebooTIng AI),以及計算機科學(xué)家朱迪亞·珀爾撰寫的《為什么》(The book of Why)。

“越大越好”的思想已經(jīng)開始將AI研究帶向深淵??茖W(xué)界不應(yīng)該等到下一個人工智能寒冬才開始認真思考這些問題。

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉