RISC-V在AI上的天然優(yōu)勢,以及能走多遠的關鍵所在
受生成式 AI 驅動, RISC-V 芯片市場快速發(fā)展。預計到2030年,RISC-V SoC出貨量將達到1618.1億顆,營收將達到927億美元。其中,用于AI加速器的RISC-V SoC出貨量將達到41億顆,營收將達到422億美元。
百模大戰(zhàn)催生了更多的算力需求,為了追求更高校低成本的token產出,業(yè)界紛紛采用異構計算來實現(xiàn)工作負載的優(yōu)化,而異構計算范式與RISC-V技術優(yōu)勢天然高度契合。巨頭公司和初創(chuàng)公司紛紛入局,例如OpenAI早早就啟動了RISC-V AI造芯計劃,Altman向一家芯片初創(chuàng)公司Rain AI進行了投資,而其第一批基于RISC-V開源架構的AI芯片也即將流片。
在AI巨頭的計算布局中,RISC-V已成重要一環(huán):谷歌在其人工智能芯片中使用SiFive的X280 作為協(xié)處理器,并計劃在下一代人工智能系統(tǒng)中繼續(xù)采用SiFive設計。Meta首發(fā)的AI MTIA芯片中使用兩顆AX25V100核心處理器,其RISC-V IP內核已獲認可,且第二代MTIA芯片將繼續(xù)采用并增加核心數(shù)量。特斯拉的Project Dojo芯片核心包含一個整數(shù)單元,采用了部分RISC-V架構指令。
反觀高性能芯片方面,RISC-V AI芯片公司如雨后春筍般萌發(fā):Tenstorrent將基于RISC-V架構技術和 SF4X工藝開發(fā)下一代AI芯片。Untether.Al推出的Boqueria Al速器 擁有1458個RISC-V核心,可在由低 至高功耗設備間靈活適配。Rivos推出的AI芯片則結合高性能RISC-V CPU和針對LLM及數(shù)據(jù)分析優(yōu)化的GPGPU。
英偉達的推理霸主地位,正在被這些RISC-V”后生“們設計的AISC所挑戰(zhàn)。Etched AI推出的全球首款Transformer專用ASIC芯片(名為“Sohu”),采用了臺積電4nm工藝,配有144GB HBM3E高帶寬內存,在能效上顯著優(yōu)于傳統(tǒng)GPU,在推理性能比英偉達H100快20倍。這種優(yōu)勢的建立在其對于Transformer架構的芯片底層硬化優(yōu)化,因此并不支持CNN、RNN 或 LSTM等大多數(shù)AI架構。
而AI芯片創(chuàng)業(yè)公司Tenstorrent設計的高性能RISC-V CPU,已經比肩全球最高性能X86架構CPU。其基于自有Ascalon處理器內核的RISC-V CPU,在衡量整數(shù)性能的SPEC CPU 2017 INT Rate基準測試中,領先于英特爾的Sapphire Rapids (7.45分) 、Nvidia的Grace (7.44分) 和AMD的Zen 4 (6.80分) ;僅次于AMD的Zen 5 (Zen 5預計將達到8.84分,成為2024-2025年的絕對整數(shù)性能冠軍)。
靈活性無可比擬,突破傳統(tǒng)架構瓶頸
AI計算對算力、存儲、內存帶寬、容量以及芯片互聯(lián)帶寬的需求極高,遠超其他一般應用。為了應對這些挑戰(zhàn),業(yè)界進行了廣泛探索,包括數(shù)據(jù)流架構、存內計算、創(chuàng)新封裝技術和芯粒(Chiplet)設計等。RISC-V的開放特性為這些架構創(chuàng)新提供了理想的載體,開發(fā)者可以基于其免費、開放的指令集架構自由探索和實現(xiàn)創(chuàng)新設計。這種靈活性是Arm和x86等封閉指令集架構無法比擬的獨特優(yōu)勢。
針對AI和并行計算而進行了架構優(yōu)化的ASIC,如Tenstorrent在基于RISC-V的數(shù)據(jù)流計算架構方面進行的創(chuàng)新設計,旨在解決傳統(tǒng)架構(尤其是馮·諾依曼架構)在 AI 和并行計算負載上面臨的內存墻、能效比和靈活性瓶頸。
Tenstorrent沒有采用GPU,而是用了很多小的RISC-V CPU Core來實現(xiàn)對于Transformer的加速計算。根據(jù)Wei-Han Lien的解釋,“Baby RISC-V”指的是Tenstorrent在AI加速器設計中使用的一種小型、精簡的RISC-V核心,這些核心被用來管理AI計算中的控制和數(shù)據(jù)流動任務。這種Big+Baby RISC-V設計,其具備幾大特點:一是小而精,設計上非常簡單,專注于特定的管理任務。這些任務包括指令調度、數(shù)據(jù)移動(如從一個存儲位置到另一個位置)等,而不是執(zhí)行復雜的計算。由于其簡單性,這些核心可以高度優(yōu)化,適合特定場景的AI計算需求。二是多核架構,Tenstorrent的加速器使用大量這種小型RISC-V核心,通過并行工作來管理AI計算中的復雜流程。這些核心不像傳統(tǒng)GPU或GPGPU那樣依賴大型、通用計算單元,而是通過分布式的小型核心實現(xiàn)高效的計算控制。三是優(yōu)化的計算路徑,通過簡化CPU的控制通路,“Baby RISC-V”的設計能夠將芯片的硅面積更多分配給計算單元,而不是控制邏輯。這種設計能大幅提高計算效率,尤其適合AI任務中計算密集型的工作負載。四是靈活性和場景適應性,這些小型核心因其簡單性,可以靈活適應不同場景(如云端、邊緣設備)。通過RISC-V的統(tǒng)一接口,開發(fā)者可以更容易地針對不同硬件進行編程,增強了生態(tài)系統(tǒng)的兼容性和擴展性。
軟件生態(tài),才是RISC-V x AI的發(fā)展命門
雖然采用ASIC的方式,硬件上的設計能夠更靈活、在推理側會更高效。但RISC-V的AI之路能走多遠,機會多大,關鍵是軟件生態(tài)。
“今天GPU真正的優(yōu)勢在哪里?其實未必是在于單位GPU的算力,它更強的是在于在CUDA上面有一個非常強的生態(tài)?!睏铎o在第五屆RISC-V峰會上坦言到。
CUDA的強大在于其完善的軟件生態(tài),當前算法迭代很快,而硬件開發(fā)周期較長(2-3年)。CUDA的通用性和靈活性讓GPU能夠快速適配新的算法和模型,無需頻繁更換硬件。例如,深度學習模型從CNN到Transformer的演變,CUDA都能通過軟件更新支持。
此外,CUDA的統(tǒng)一編程接口屏蔽了底層硬件的差異(不同型號的GPU如Volta、Ampere、Hopper),開發(fā)者只需編寫一次代碼,就能跨硬件運行,極大地降低了開發(fā)成本。CUDA還集成了大量優(yōu)化庫(如cuDNN用于深度學習,cuSPARSE用于稀疏矩陣運算),開發(fā)者可以直接調用這些庫,減少開發(fā)時間。例如,PyTorch中的CUDA支持讓開發(fā)者只需一行代碼(.to('cuda'))就能將模型和數(shù)據(jù)遷移到GPU運行。
CUDA其豐富的庫和統(tǒng)一接口確保高性能和靈活性,讓GPU內數(shù)千個CUDA核心高效處理并行任務,廣泛應用于AI、科學計算等領域。
RISC-V若想在AI領域占據(jù)一席之地,必須打造類似CUDA的軟件生態(tài),開發(fā)統(tǒng)一的編程接口和優(yōu)化庫,以支持多樣化硬件(如“Baby RISC-V”或玄鐵的設計)。同時,RISC-V需兼容CUDA代碼的移植,方便開發(fā)者遷移現(xiàn)有應用,并構建原生軟件棧,充分發(fā)揮其開放、可定制架構的優(yōu)勢,推動創(chuàng)新。
總而言之,當前RISC-V在硬件上的創(chuàng)新成績令人興奮(如“Baby RISC-V”或玄鐵的獨立寄存器方案等等),但最終是軟件決定了硬件如何被充分利用,RISC-V要學習CUDA的軟件生態(tài)建設。
AI拓展指令標準化,融合進CPU指令集,軟件生態(tài)走向統(tǒng)一
80年代,浮點運算需求大,Intel先用8087協(xié)處理器跑x87指令,后來把浮點單元直接塞進80486 CPU,x87指令成了x86標配,科學計算效率大漲。90年代,多媒體火了,Intel推出MMX加速視頻、圖像處理,再到SSE用獨立寄存器支持更復雜的并行計算,AVX-512更是直接助力AI。這些指令都從“外掛”變成CPU核心功能,靠編譯器和標準普及開。RISC-V現(xiàn)在就像當年的x86,可以加AI專用的指令,比如矩陣運算,早期可能用加速器,未來直接融入CPU。
當下,“可擴展性和模塊化”是RISC-V的一個天然優(yōu)勢,開發(fā)者可以基于RISC-V指令集,針對特定應用(如AI)構建新的擴展指令集。在硬件選擇上,只需實現(xiàn)支持特定模塊的RISC-V指令,而非全部指令集,從而優(yōu)化芯片設計成本。而在未來,當AI應用開始走向確定和收斂,AI拓展指令融合到CPU指令集中,也將會是一種趨勢。
當前國內AI芯片也有很多家,每家都有一套自己的軟件棧,基本都是“垂直煙囪式”的在發(fā)展。包云崗在第五屆RISC-V中國峰會上展望,當AI指令集層面上統(tǒng)一后,在這個標準上就可以建設軟件棧的統(tǒng)一、編譯器的統(tǒng)一?!巴ㄟ^在AI指令集層面上統(tǒng)一以后把上層的軟件棧在全世界層面上大家共同共建,這就是才有希望跟CUDA生態(tài)競爭、相當于是未來有這個機會?!?