www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀] AI很聰明?有時計算加法的水平還不如高中生 谷歌的DeepMind的研究人員建立了兩種不同類型的最先進的神經(jīng)網(wǎng)絡(luò),看看它們能否被訓(xùn)練來回答高中數(shù)學(xué)問題。結(jié)果是E級,沒有把6以上的個位

AI很聰明?有時計算加法的水平還不如高中生

谷歌的DeepMind的研究人員建立了兩種不同類型的最先進的神經(jīng)網(wǎng)絡(luò),看看它們能否被訓(xùn)練來回答高中數(shù)學(xué)問題。結(jié)果是E級,沒有把6以上的個位數(shù)相加。

你會算下面這道題嗎?

1+1+1+1+1+1+1等于多少?

如果你的答案是7,那么恭喜你,正確,而且你的數(shù)學(xué)要比目前最先進的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)技術(shù)要出色。

我沒有開玩笑,根據(jù)國外媒體報道,谷歌旗下DeepMind的人工智能研究人員本周發(fā)表了一項研究,他們試圖訓(xùn)練神經(jīng)網(wǎng)絡(luò)來解決算術(shù)、代數(shù)和微積分的基本問題。這類問題通常是對高中生的測試。

但是神經(jīng)網(wǎng)絡(luò)的表現(xiàn)并不好。除了不正確地猜出上述問題的答案為6外,神經(jīng)網(wǎng)絡(luò)在一次標準測試中只答對了40道題中的14道。

研究人員指出,這相當于英國16歲學(xué)生的E級。

基本上,在這一點上,人工智能很難真正學(xué)習(xí)任何基礎(chǔ)數(shù)學(xué)。

這篇名為“分析神經(jīng)模型的數(shù)學(xué)推理能力”的論文被創(chuàng)建為一個基準測試集,其他人可以在此基礎(chǔ)上構(gòu)建神經(jīng)網(wǎng)絡(luò)來進行數(shù)學(xué)學(xué)習(xí),就像ImageNet被創(chuàng)建為一個圖像識別基準測試一樣。

引用紐約大學(xué)著名的神經(jīng)網(wǎng)絡(luò)評論家Gary Marcus的話,作者提到了著名的神經(jīng)網(wǎng)絡(luò)的“脆弱性”,并主張調(diào)查為什么人類能夠更好地執(zhí)行“關(guān)于對象和實體的離散成分推理,這是代數(shù)上的概括”。

他們提出了一系列不同的數(shù)學(xué)問題,這些問題應(yīng)該促使神經(jīng)網(wǎng)絡(luò)獲得這樣的推理,其中包括“規(guī)劃(例如,按照正確的組合順序識別函數(shù))”,當一個數(shù)學(xué)問題的部分可能是關(guān)聯(lián)的,也可能不是分配的,也可能不是交換的。

他們寫道:“如果一個模型不具備至少一部分代數(shù)泛化的能力,它就很難在一系列問題類型中做得很好?!币虼?,數(shù)據(jù)集。

他們提出了一系列問題,沒有一個涉及幾何,也沒有一個是口頭問題:

42*r+27*c =-1167和130*r+4*c=372,求r等于多少。

答案:4

作者綜合了這些數(shù)據(jù)集,而不是將它們眾包,因為這樣很容易獲得大量的例子。他們將問題以“自由形式”的句子形式提交給計算機,這樣計算機就不會以任何方式將問題解析得更容易,比如“樹”或“圖”數(shù)據(jù)形式。

這些問題的基礎(chǔ)是“美國學(xué)校數(shù)學(xué)課程(16歲以下),僅限于文本問題(因此不包括幾何問題),它提供了作為學(xué)習(xí)課程一部分的廣泛數(shù)學(xué)主題?!彼麄儗懙?,他們加強了基礎(chǔ)課程,提出了“為代數(shù)推理提供良好測試”的問題。

他們指出,為了訓(xùn)練一個模型,他們本可以賦予一些神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)能力,但關(guān)鍵是讓它從無到有,并建立數(shù)學(xué)能力。因此,他們或多或少采用了標準的神經(jīng)網(wǎng)絡(luò)。

他們寫道:“我們感興趣的是評估通用模型,而不是那些已經(jīng)具備數(shù)學(xué)知識的模型?!?/p>

“從翻譯到通過圖像標題進行解析,這些模型(通常是神經(jīng)結(jié)構(gòu))如此普遍的原因在于,由于這些函數(shù)近似器的設(shè)計中編碼的領(lǐng)域特定知識相對較少(或沒有),所以它們沒有偏見?!?/p>

作者構(gòu)建了兩種不同的“最先進的”神經(jīng)網(wǎng)絡(luò)來解析、嵌入并回答這些問題。一種是“長短時記憶”(LSTM)神經(jīng)網(wǎng)絡(luò),它擅長處理順序類型的數(shù)據(jù),由Sepp Hochreiter和Jurgen Schmidhuber在20世紀90年代開發(fā)。

他們還訓(xùn)練了所謂的“轉(zhuǎn)換器”,這是谷歌開發(fā)的一種較新的遞歸神經(jīng)網(wǎng)絡(luò),在處理各種任務(wù)時越來越受歡迎,比如嵌入文本序列來處理自然語言。

他們給了神經(jīng)網(wǎng)絡(luò)一些時間來思考,因為“模型可能需要花費幾個計算步驟來整合問題中的信息”。

“為了實現(xiàn)這一點,我們在輸出答案之前添加了額外的步驟(零輸入)。”

結(jié)果一般。例如,回到本文開頭的問題,當數(shù)字超過前六個計數(shù)數(shù)字時,基本加法就失敗了。作者表示,他們“測試了添加1 + 1 ++ 1的模型,其中1出現(xiàn)n次。

“LSTM和Transformer模型都給出了n≤6的正確答案,但n = 7的錯誤答案是6(似乎漏掉了一個1),n > 7的其他錯誤值也是6?!?/p>

這是為什么呢?就像神經(jīng)網(wǎng)絡(luò)經(jīng)常發(fā)生的情況一樣,一些其他的事情似乎正在幕后發(fā)生,因為當把更大的數(shù)以更長的序列相加時,比如34+53+…+936等等,神經(jīng)網(wǎng)絡(luò)能夠做得很好,作者觀察到。

“我們對這種行為沒有一個很好的解釋,”他們寫道。他們假設(shè),當他們分析問題并對其進行操作時,神經(jīng)網(wǎng)絡(luò)正在創(chuàng)建“子和”,而當他們失敗時,這是因為“輸入被‘偽裝’了,由重復(fù)多次的相同數(shù)字組成”。

一般來說,神經(jīng)網(wǎng)絡(luò)在一些事情上做得最好,比如在一個長數(shù)字中找到“位置值”,比如,在一個數(shù)字中找出“十位”,比如9343012。他們也擅長四舍五入十進制數(shù)和按大小順序排序。

對這個系統(tǒng)來說,最難的問題是“數(shù)字理論問題”,比如因式分解,把數(shù)字或其他數(shù)學(xué)對象分解成組成部分,以及判斷一個數(shù)字是否是質(zhì)數(shù)。但他們指出,人類在這方面也有困難,所以這并不奇怪。另一個問題是“混合算術(shù)”的組合,所有四種運算都在這里進行。在那里,機器的性能精度“下降到50%左右”。

為什么計算機在做加法或減法的時候做得很好,但當被要求做所有這些時卻感到困惑?

“我們推測,這些模塊之間的區(qū)別在于,前者可以用一種相對線性/淺層/并行的方式計算(因此通過梯度下降法相對更容易發(fā)現(xiàn)求解方法),”作者沉思道,“而用括號計算混合算術(shù)表達式?jīng)]有捷徑。”

總而言之,在高中課程中,收集了一系列現(xiàn)實世界的問題,作者稱E級成績“令人失望”和“中等”。

他們得出這樣的結(jié)論:當變壓器神經(jīng)網(wǎng)絡(luò)構(gòu)建執(zhí)行比LSTM變體,“兩個網(wǎng)絡(luò)在做多”算法推理”和“模型沒有學(xué)會做任何代數(shù)/算法操作的值,而是學(xué)習(xí)相對淺技巧來獲得好的答案的許多模塊?!?/p>

盡管如此,現(xiàn)在已經(jīng)有了一個數(shù)據(jù)集,他們希望這是一個基線,在此基礎(chǔ)上,其他人將加入他們的行列,訓(xùn)練更多種類的網(wǎng)絡(luò)。他們指出,數(shù)據(jù)集很容易擴展,這應(yīng)該能讓研究人員直接達到大學(xué)水平的數(shù)學(xué)水平。

希望到那時,神經(jīng)網(wǎng)絡(luò)已經(jīng)學(xué)會了加法。

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉