人工智能浪潮將至,Rambus再破存儲器帶寬瓶頸
信息技術(shù)發(fā)展的主要矛盾,就是當(dāng)前硬件有限的算力和帶寬與用戶不斷增長的算力與帶寬要求之間的矛盾。在PC時代和移動互聯(lián)時代,終端設(shè)備的算力與帶寬都曾在需求推動下,按摩爾定律的預(yù)測指數(shù)性增長。近年來,隨著人工智能應(yīng)用(人工智能和機(jī)器學(xué)習(xí),即AI/ML)的興盛,對算力與內(nèi)存帶寬的要求又推到了一個新層次,據(jù)統(tǒng)計,從2012年到2019年,人工智能訓(xùn)練集增長了30萬倍,每3.43個月翻一番,支持這一發(fā)展速度需要的遠(yuǎn)不止摩爾定律所能實現(xiàn)的改進(jìn),這需要從架構(gòu)開始,做算法、硬件和軟件的共同優(yōu)化,才能不斷提升系統(tǒng)性能以滿足人工智能訓(xùn)練的需求。

訓(xùn)練能力大幅提升
數(shù)據(jù)來源:openai.com
人工智能訓(xùn)練主要發(fā)生在云端和數(shù)據(jù)中心,而在邊緣側(cè),人工智能推理也被廣泛采用,在自動駕駛等應(yīng)用中,推理對于帶寬和實時性要求極高。
訓(xùn)練和推理
在人工智能/機(jī)器學(xué)習(xí)應(yīng)用中,訓(xùn)練和推理往往成對出現(xiàn)。訓(xùn)練是“知”,是學(xué)習(xí),是機(jī)器“理解”被研究對象的過程;推理是“行”,是決策,是利用訓(xùn)練好的模型對設(shè)備或系統(tǒng)的未來操作進(jìn)行指導(dǎo)的過程。
在“知”的階段,已知數(shù)據(jù)集被喂給待訓(xùn)練的神經(jīng)網(wǎng)絡(luò)(或深度神經(jīng)網(wǎng)絡(luò),Deep NeuralNetwork, 簡稱DNN,這里將神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)統(tǒng)稱為神經(jīng)網(wǎng)絡(luò)),神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)集所表示的內(nèi)容進(jìn)行學(xué)習(xí)后作出推斷,推斷的誤差用來調(diào)整神經(jīng)網(wǎng)絡(luò)框架的各種參數(shù),例如神經(jīng)網(wǎng)絡(luò)各層中的數(shù)據(jù)集權(quán)重,隨著訓(xùn)練過程的繼續(xù),將反復(fù)迭代上述過程對神經(jīng)網(wǎng)絡(luò)進(jìn)行調(diào)整,直到其能以足夠的準(zhǔn)確性進(jìn)行推斷。
數(shù)據(jù)集有大有小,有的可能需要數(shù)千張圖像,但也有數(shù)據(jù)集達(dá)到數(shù)千萬張。如前所述,隨著人工智能技術(shù)發(fā)展,數(shù)據(jù)集規(guī)模在不斷加大,對存儲的要求在不斷加大。而在訓(xùn)練過程中,算法專家要引導(dǎo)神經(jīng)網(wǎng)絡(luò)模型收斂并在推斷時達(dá)到所需的精度。這可能需要運(yùn)行數(shù)百次實驗,嘗試不同的神經(jīng)網(wǎng)絡(luò)設(shè)計并調(diào)整其參數(shù)。每個實驗可能需要大約“exaflops”(十億億次操作)次計算,整體計算要花幾小時到數(shù)天才能完成。為了加快這種漫長訓(xùn)練過程,算法專家通常會在數(shù)據(jù)中心中訓(xùn)練神經(jīng)網(wǎng)絡(luò)。
在“行”的階段,未知數(shù)據(jù)集被喂給訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)對未知數(shù)據(jù)集進(jìn)行分類識別和決策。部署訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)可能很簡單,但為圖像和自然語言處理等人工智能任務(wù)而生成的神經(jīng)網(wǎng)絡(luò)模型往往規(guī)模巨大,形式復(fù)雜,有數(shù)百萬甚至數(shù)十億權(quán)重參數(shù)將數(shù)十或數(shù)百層人工神經(jīng)元連接起來。神經(jīng)網(wǎng)絡(luò)規(guī)模越大,運(yùn)行該網(wǎng)絡(luò)所需的算力、內(nèi)存和能量也就越多,將數(shù)據(jù)輸入神經(jīng)網(wǎng)絡(luò)到得出結(jié)果的響應(yīng)時間也就越長。要滿足推理時系統(tǒng)對功耗和延時的要求,通常要對訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)進(jìn)行修剪和量化,在保證推理精度的前提下,降低神經(jīng)網(wǎng)絡(luò)復(fù)雜度,以減少功耗和降低延時。
內(nèi)存帶寬是影響人工智能發(fā)展的關(guān)鍵因素
一般而言,推理相對比訓(xùn)練對算力和內(nèi)存帶寬的要求要低一些,但這并不是絕對的。以自動駕駛為例,必須能夠在毫秒內(nèi)檢測到目標(biāo)并做出響應(yīng),以避免發(fā)生事故。第3級與第4級自動駕駛系統(tǒng)的復(fù)雜數(shù)據(jù)處理需要超過200 GB/s的內(nèi)存帶寬,高帶寬是復(fù)雜人工智能算法實時處理的基本需求,在道路上這些算法需要快速執(zhí)行大量計算并安全地執(zhí)行實時決策。在第5級,即完全自主駕駛,車輛能夠獨(dú)立地對交通標(biāo)志和信號的動態(tài)環(huán)境作出反應(yīng),以及準(zhǔn)確地預(yù)測汽車、卡車、自行車和行人的移動,將需要超過500GB/s的內(nèi)存帶寬。
隨著新一代人工智能加速器和專用芯片的快速發(fā)展,新的內(nèi)存解決方案,如高帶寬內(nèi)存(HBM、HBM2、HBM2E)和GDDR6 SDRAM(GDDR6)漸被采用來提供所需的帶寬。
HBM和GDDR
高帶寬內(nèi)存( High Bandwidth Memory )是一種立體(3維或2.5維)堆疊存儲方案。該概念最早由AMD在2008年引入,以解決PC系統(tǒng)對存儲容量提升導(dǎo)致的功耗和尺寸不斷增加的問題,通過與韓國海力士等公司合作,由海力士在2013年生產(chǎn)了第一批HBM存儲器,該技術(shù)也于當(dāng)年10月被標(biāo)準(zhǔn)組織JEDEC(電子元件工業(yè)聯(lián)合會,Joint Electron Device Engineering Council)接受為標(biāo)準(zhǔn)JESD235。
此后HBM技術(shù)發(fā)展不斷向前推進(jìn),2016年JEDEC通過HBM2標(biāo)準(zhǔn)JESD235a,在2018年末,JEDEC宣布對HBM2規(guī)范更新至HBM2E,以提升帶寬和容量。當(dāng)傳輸速率上升到每管腳3.6Gbps時,HBM2E可以實現(xiàn)每堆棧461GB/s的內(nèi)存帶寬。此外,HBM2E支持12個DRAM的堆棧,內(nèi)存容量高達(dá)每堆疊24 GB。
HBM2E提供了達(dá)成巨大內(nèi)存帶寬的能力。連接到一個處理器的四塊HBM2E存儲器將提供超過1.8TB/s的帶寬。通過3D堆疊內(nèi)存,可以以極小的空間實現(xiàn)高帶寬和高容量需求。進(jìn)一步,通過保持相對較低的數(shù)據(jù)傳輸速率,并使內(nèi)存靠近處理器,總體系統(tǒng)功率得以維持在較低水位。HBM2E的劣勢是加工復(fù)雜,成本較高。

HBM封裝示意圖
GDDR(Graphics Double Data Rate)是另外一種比普通DDR存儲器更快的內(nèi)存方案。GDDR出現(xiàn)最初是為了適配高端顯卡,主要用于圖像處理所以得名。其工作頻率、電壓都和標(biāo)準(zhǔn)DDR不同,一般比標(biāo)準(zhǔn)DDR時鐘頻率更高,發(fā)熱量更小,帶寬更大。最新一代GDDR6的數(shù)據(jù)傳輸速率為16Gbps。GDDR6提供了比GDDR5大幅改善的帶寬、容量、延遲和功率。GDDR6將工作電壓從GDDR5的1.5V降低到1.35V,以獲得更高的功率效率,并使數(shù)據(jù)傳輸速率(16Gbps比8 Gbps)和容量(16GB比8GB)都比GDDR5翻了一番。隨著GPU在人工智能領(lǐng)域的廣泛應(yīng)用,GDDR也在人工智能應(yīng)用中發(fā)揮著越來越重要的作用。
GDDR的優(yōu)勢是成本更低,可以用標(biāo)準(zhǔn)DDR生產(chǎn)工藝來制造,而且利用現(xiàn)有的基礎(chǔ)架構(gòu)和流程讓系統(tǒng)設(shè)計者可沿用過去經(jīng)驗,從而降低了開發(fā)成本和實現(xiàn)的復(fù)雜性。但由于不是立體封裝,所以在功耗和面積上不如HBM2E。
HBM與GDDR分別適應(yīng)訓(xùn)練和推理需求
訓(xùn)練和推理對存儲的需求有所不同,所以系統(tǒng)設(shè)計者需要根據(jù)高存儲帶寬應(yīng)用的具體需求來選擇究竟用HBM2E還是GDDR6。
對于訓(xùn)練來說,帶寬和容量至關(guān)重要,特別是考慮到訓(xùn)練集的規(guī)模正以每3.43個月翻一番的速度增長。HBM2E的性能非常出色,所增加的成本可以透過節(jié)省的電路板空間和電費(fèi)沖銷。在物理空間日益受限的數(shù)據(jù)中心,HBM2E緊湊的體系結(jié)構(gòu)提供了切實的好處。它的低功率意味著它的熱負(fù)荷較低,而散熱成本是數(shù)據(jù)中心最大的運(yùn)營成本之一。考慮到所有這些需求,HBM2E是更優(yōu)的人工智能訓(xùn)練硬件的內(nèi)存解決方案。
在推理的應(yīng)用場景下,帶寬和延遲對于實時操作至關(guān)重要。對于人工智能推理這一日益具有挑戰(zhàn)性的領(lǐng)域,GDDR6是一個更優(yōu)的解決方案。建立在成熟的制造工藝基礎(chǔ)上,其出色的性價比使其適合廣泛的采用。
Rambus提供全面且現(xiàn)成的HBM2E和GDDR6內(nèi)存接口解決方案,可集成到人工智能/機(jī)器學(xué)習(xí)的訓(xùn)練和推理SoC中。最近,該公司的HBM2E內(nèi)存接口解決方案實現(xiàn)了創(chuàng)紀(jì)錄的4 Gbps性能。該解決方案由完全集成的物理層和控制器組成,搭配業(yè)界最快的來自SK海力士的3.6Gbps運(yùn)行速度的HBM2E DRAM,該解決方案可以從單個HBM2E設(shè)備提供460 GB/s的帶寬。此性能可以滿足TB級的帶寬需求,能應(yīng)對當(dāng)前最嚴(yán)苛的人工智能訓(xùn)練或推理應(yīng)用需求,也適用于高性能計算等應(yīng)用場景。
對Rambus的HBM2E和GDDR6感興趣的讀者,可以掃描下圖二維碼或點(diǎn)擊閱讀原文下載Rambus有關(guān)HBM2E和GDDR6的技術(shù)白皮書。

繁榮的市場需求帶來更好的前景
根據(jù)德勤發(fā)布的統(tǒng)計預(yù)測數(shù)據(jù)顯示,2020年全球人工智能市場規(guī)模將達(dá)到6800億元人民幣,復(fù)合增長率(CAGR)達(dá)26%。而中國人工智能市場的表現(xiàn)尤為突出,到2020年市場規(guī)模預(yù)計將達(dá)到710億元人民幣,自2015年至2020年,五年間的復(fù)合增長率高達(dá)44.5%。
近年來,中國正在積極推動人工智能與實體經(jīng)濟(jì)的融合,從而實現(xiàn)產(chǎn)業(yè)的優(yōu)化升級。2017年7月,國務(wù)院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,這一規(guī)劃與2015年5月發(fā)布的《中國制造2025》共同構(gòu)成了中國人工智能戰(zhàn)略的核心。這份具有里程碑意義的規(guī)劃,對人工智能發(fā)展進(jìn)行了戰(zhàn)略性部署,力爭到2030年把中國建設(shè)成為世界主要人工智能創(chuàng)新中心。此外,2020年是中國的新基建元年,而人工智能作為一大重點(diǎn)板塊,勢必成為新基建的核心支撐。
中國人工智能產(chǎn)業(yè)規(guī)模在2019年末達(dá)到510億元人民幣,其中人工智+能企業(yè)超過2600家。隨著中國加速推進(jìn)人工智能應(yīng)用以引領(lǐng)經(jīng)濟(jì)增長,這一趨勢將推動計算機(jī)硬件和軟件各方面的快速發(fā)展。
需求的繁榮,必然驅(qū)動人工智能生態(tài)加速發(fā)展,Rambus將持續(xù)在高帶寬存儲等技術(shù)上投入,以滿足人工智能對內(nèi)存帶寬更高的要求。