在人工智能訓(xùn)練、實時圖形渲染與科學(xué)計算領(lǐng)域,存儲器帶寬已成為制約系統(tǒng)性能的核心瓶頸。HBM3與GDDR7作為當(dāng)前顯存技術(shù)的兩大巔峰之作,分別通過三維堆疊與信號調(diào)制技術(shù)的突破,為不同應(yīng)用場景提供了差異化解決方案。本文從架構(gòu)設(shè)計、性能參數(shù)、應(yīng)用場景及生態(tài)布局四個維度,深度解析兩種技術(shù)的競爭格局與演進方向。
AI應(yīng)用爆發(fā)促進了數(shù)據(jù)中心基礎(chǔ)構(gòu)架的發(fā)展,而HBM市場也將受益于此,據(jù)悉未來三年HBM的年復(fù)合增長率將超過50%。目前HBM技術(shù)最新已經(jīng)發(fā)展到了HBM3e,而預(yù)期明年的大規(guī)模AI計算系統(tǒng)商用上,HBM3和HBM3e將會成為主流。
Aug. 1, 2023 ---- 根據(jù)TrendForce集邦咨詢調(diào)查顯示,2023年HBM(High Bandwidth Memory)市場主流為HBM2e,包含NVIDIA A100/A800、AMD MI200以及多數(shù)CSPs自研加速芯片皆以此規(guī)格設(shè)計。同時,為順應(yīng)AI加速器芯片需求演進,各原廠計劃于2024年推出新產(chǎn)品HBM3e,預(yù)期HBM3與HBM3e將成為明年市場主流。
2023年7月27日,中國上海 —— Micron Technology Inc.(美光科技股份有限公司,納斯達克股票代碼:MU)今日宣布,公司已開始出樣業(yè)界首款8層堆疊的24GB容量第二代HBM3內(nèi)存,其帶寬超過1.2TB/s,引腳速率超過9.2Gb/s,比當(dāng)前市面上現(xiàn)有的HBM3解決方案性能可提升最高50%。美光第二代HBM3產(chǎn)品與前一代產(chǎn)品相比,每瓦性能提高2.5倍,創(chuàng)下了關(guān)鍵型人工智能(AI)數(shù)據(jù)中心性能、容量和能效指標(biāo)的新紀(jì)錄,將助力業(yè)界縮短大型語言模型(如GPT-4及更高版本)的訓(xùn)練時間,為AI推理提供高效的基礎(chǔ)設(shè)施,并降低總體擁有成本(TCO)。
面對數(shù)據(jù)中心多種多樣的加速器IC,以及多種全新的內(nèi)存技術(shù),如何將兩者完美結(jié)合實現(xiàn)高效安全的數(shù)據(jù)搬運?Rambus給出了答案。
關(guān)于HBM3的消息,海力士早前曾表示單芯片可以達到5.2Gbps的I/O速率,帶寬達到665GB/s,將遠超HBM2E。但從Rambus最新發(fā)布的HBM3內(nèi)存子系統(tǒng)來看,數(shù)據(jù)傳輸速率達到了8.4Gbps,寬帶達到1TB/s,說明HBM3還有著更大的潛力。而且作為集成了PHY和控制器的完整內(nèi)存接口子系統(tǒng),Rambus HBM3方案的推出也意味著HBM3的真正面世也將不遠了。