因特爾研發(fā)的首款神經(jīng)網(wǎng)絡(luò)芯片 將于明年量產(chǎn)
英特爾看到 Nvidia 在 AI 領(lǐng)域大放異彩,也想要用手上芯片弄機(jī)器學(xué)習(xí),用一堆 Atom 芯片組成 Xeon Phi 架構(gòu),但是看來效果沒想像中好。英特爾在 AI 開發(fā)者大會(huì)上發(fā)布第一款機(jī)器學(xué)習(xí)芯片 Nervana NNP-L1000,打算用并購的技術(shù)與 Nvidia 一較高下。
對(duì)于英特爾來說積極在 AI 布局相當(dāng)重要,而從先前并購取得的技術(shù)當(dāng)中,就屬 Nervana 的神經(jīng)網(wǎng)絡(luò)芯片,最被看好能在 AI 時(shí)代有發(fā)展?jié)摿Γ夷芨?Nvidia 競爭了。
英特爾發(fā)布的文章指出 Nervana NNP-L1000 的性能:
一般性質(zhì)的距陣對(duì)距陣乘法 (General Matrix to Matrix Multiplication, GEMM) 運(yùn)算,使用 A(1536, 2048) 和 B(2048, 1536) 距陣大小,能達(dá)成單一芯片下超過 96.4% 的運(yùn)算資源運(yùn)用,這代表實(shí)際上有 38 TOPS/s 的單一芯片效能。 多芯片分散式 GEMM 運(yùn)算則能支持模式平行訓(xùn)練,能夠達(dá)到接近線性運(yùn)算程度,以及 A(6144, 2048) 和 B(2048, 1536) 距陣下,96.2% 規(guī)模效能 – 具備串接多個(gè)神經(jīng)網(wǎng)絡(luò)運(yùn)算,釋放其他架構(gòu)下存儲(chǔ)器的限制。
我們量測單向芯片對(duì)芯片的理論頻寬效能,發(fā)現(xiàn)低于 790ns的延遲狀況,而且我們也相當(dāng)興奮能套用上述結(jié)果到 2.4TB/s 的高速頻寬上面,具有同樣的雙向低延遲性。
這一切都是用低于 210 瓦的功耗,單一一片芯片就達(dá)成了,而這不過是早期合作伙伴回報(bào)的 Nervana NNP (Lake Crest) 原型芯片的數(shù)據(jù)。
而對(duì)開發(fā)者來說,英特爾投入資源在每一項(xiàng)可能在 AI 有發(fā)展的技術(shù)上面。這次宣布 Nervana NNP-L1000 芯片,開發(fā)者不必分神在每一項(xiàng)英特爾發(fā)布的 AI 相關(guān)技術(shù)。
英特爾近年來積極并購公司,想要進(jìn)入 AI 市場,避免與 Nvidia 的差距越拉越大。如買了 Altera 取得 field programmable gate arrays (FPGAs),買了 MobilEye 取得自動(dòng)駕駛汽車芯片,以及買了 Nervana 取得他們手上神經(jīng)網(wǎng)絡(luò)芯片技術(shù)。
英特爾已經(jīng)提供 Facebook Nervana NNP-L1000 芯片,用在 Facebook 的 AI 項(xiàng)目上面,而且看來數(shù)據(jù)表現(xiàn)上面很亮眼。期待英特爾在 2019 年正式推出 Nervana NNP-L1000 芯片 ,會(huì)在 AI 市場上,除了 Nvidia GPU 的方案,新的解決方案。