www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁 > 廠商動態(tài) > Arm
[導(dǎo)讀]AI 時代的新基石

引言

邊緣 AI 的加速

人工智能 (AI) 正在經(jīng)歷一場根本性的變革。早期 AI 模型規(guī)模龐大、計算密集,并且依賴云端處理;而如今,一股以提升效率為導(dǎo)向的創(chuàng)新浪潮正將 AI 推理 —— 即模型結(jié)果的生成過程 ——向邊緣端遷移。更小的模型、更優(yōu)的內(nèi)存和計算性能,以及對隱私、低延遲和高能效的需求,正共同推動 AI 在移動設(shè)備、可穿戴設(shè)備、機(jī)器人和汽車等應(yīng)用中的廣泛應(yīng)用。

然而,這一轉(zhuǎn)變并不意味著對 AI 計算的需求會減少。經(jīng)濟(jì)學(xué)原理中的“杰文斯悖論 ”(Jevon’s Paradox) 告訴我們,當(dāng)技術(shù)進(jìn)步提高了效率時,總體消耗并不會下降,反而會增加。對于 AI 也是如此:隨著模型變得更加高效,AI 的應(yīng)用將在各行各業(yè)成為常態(tài),全球數(shù)十億臺設(shè)備和系統(tǒng)中將嵌入更多智能,以捕獲和分析數(shù)據(jù)。

這份高管洞察報告探討了由模型蒸餾、硬件加速和新興架構(gòu)驅(qū)動的 AI 效率提升,如何推動 AI 的快速擴(kuò)展。我們還分析了諸如 DeepSeek 超高效 AI 模型等最新突破的影響,并討論了 CPU 和加速器計算子系統(tǒng)在邊緣擴(kuò)展 AI 推理中的關(guān)鍵作用。

AI 的演變:從云端到代理智能和物理智能

僅僅在短短 5 年時間里,AI 在能力以及部署的場景和方式上都發(fā)生了快速演變。如今,我們已經(jīng)進(jìn)入了代理式 AI 階段,AI 不再只是對輸入作出響應(yīng),而是能夠主動執(zhí)行任務(wù)、做出決策,并實時適應(yīng)環(huán)境。想象一下,個人助理能夠總結(jié)會議內(nèi)容、編寫代碼、調(diào)節(jié)家居設(shè)置,或在無需人工提示的情況下自動化客戶服務(wù)流程。

與此同時,物理 AI —— 即嵌入在設(shè)備中、能夠在物理世界中感知、理解并采取行動的智能 —— 正在成為下一個前沿領(lǐng)域。

代理式 AI 和物理 AI 共同標(biāo)志著一個轉(zhuǎn)折點:AI 不再局限于數(shù)字交互,它正成為一種無處不在、深度嵌入的力量,滲透至每一個環(huán)境、行業(yè)和設(shè)備形態(tài)之中。

為什么 AI 推理正在向邊緣側(cè)遷移?

邊緣 AI 普及的關(guān)鍵驅(qū)動因素

AI 推理從集中的云端環(huán)境向邊緣設(shè)備的轉(zhuǎn)移,是對技術(shù)和市場需求的戰(zhàn)略性回應(yīng)。消費(fèi)者越來越期望獲得更快速、更私密和響應(yīng)更及時的體驗,而設(shè)備制造商則面臨著在設(shè)備端提供高效智能的壓力。事實上,根據(jù)全球管理咨詢公司貝恩 (Bain & Company) 的說法,生成式 AI 推理正是邊緣計算的主要催化劑,因為企業(yè)將低延遲、增強(qiáng)的安全性以及實時處理專有數(shù)據(jù)的成本效益放在首位。作為進(jìn)一步的證據(jù),咨詢公司麥肯錫預(yù)測,到 2030 年,超過 70% 的 AI 推理將發(fā)生在邊緣端。接下來,讓我們深入探討其中的一些驅(qū)動因素。

更小的 AI 模型:模型蒸餾技術(shù)能夠?qū)⒋笮蛷?fù)雜的模型壓縮成高效緊湊的版本,使其能夠在邊緣設(shè)備上以極低的內(nèi)存和計算需求運(yùn)行。這意味著,那些曾經(jīng)需要依賴云端連接和數(shù) GB 內(nèi)存才能完成的推理任務(wù),如今在僅配備幾 MB 內(nèi)存的設(shè)備中也能高效運(yùn)行。

更強(qiáng)的計算能力:神經(jīng)處理單元 (NPU) 和其他專用加速器的興起,通過增加專門針對人工智能工作負(fù)載優(yōu)化的硬件,增強(qiáng)了傳統(tǒng)CPU的性能,從而有效提升了整體 AI 性能。

隱私與安全性:在設(shè)備端進(jìn)行 AI 推理可以減少數(shù)據(jù)在云端存儲和傳輸過程中可能面臨的安全風(fēng)險。通過在邊緣端執(zhí)行 AI 推理,敏感數(shù)據(jù)能夠安全地留存在設(shè)備上,而無需通過網(wǎng)絡(luò)傳輸。

更低的延遲:邊緣 AI 消除了與云端處理相關(guān)的延遲,確保了對關(guān)鍵任務(wù)應(yīng)用的實時響應(yīng)。這在諸如自動駕駛汽車需要識別行人、手術(shù)機(jī)器人必須應(yīng)對意外的組織移動,或增強(qiáng)現(xiàn)實系統(tǒng)需要疊加實時信息等場景中至關(guān)重要。

能效:云數(shù)據(jù)中心消耗大量的電力 —— 據(jù)估計,其電力消耗占全球能源使用的 1%-2% —— 且其冷卻需求進(jìn)一步增加了碳足跡?;谶吘壍耐评泶蠓档土伺c云計算相關(guān)的能耗,支持 AI 的可持續(xù)應(yīng)用。

經(jīng)濟(jì)性:計算發(fā)生的位置決定了計算的成本負(fù)擔(dān)。在云端,企業(yè)需要承擔(dān)基礎(chǔ)設(shè)施成本,并且通常會補(bǔ)貼使用費(fèi)用,以此來吸引客戶并從數(shù)據(jù)中獲利。而在邊緣端,消費(fèi)者通常會支付費(fèi)用——無論是通過設(shè)備成本間接支付,還是通過應(yīng)用購買直接支付——這使得效率對于邊緣 AI 的普及至關(guān)重要。這些片上系統(tǒng) (SoC) 高度集成,將幾乎所有電子組件都封裝在一塊芯片上,包括 CPU、GPU、調(diào)制解調(diào)器、圖像信號處理器、內(nèi)存、I/O 接口,甚至是像 NPU 這樣的 AI 加速器。這使當(dāng)今智能手機(jī)和其他移動設(shè)備能夠支持各種各樣的應(yīng)用和服務(wù)。

快速采用邊緣 AI 的行業(yè)

向邊緣 AI 轉(zhuǎn)變并非僅停留在理論層面,事實上,隨著企業(yè)認(rèn)識到在設(shè)備端直接部署 AI 能力帶來的競爭優(yōu)勢,這一變革正深刻重塑多個行業(yè)。這場變革正在以下領(lǐng)域全面展開:

移動設(shè)備,包括現(xiàn)代智能手機(jī),如今能夠在沒有網(wǎng)絡(luò)連接的情況下執(zhí)行實時語言翻譯等復(fù)雜任務(wù),使旅行者即便沒有蜂窩網(wǎng)絡(luò)服務(wù),也能在國外無障礙交流。生成式 AI 功能使設(shè)備能夠本地創(chuàng)建圖像、文本和音樂,讓用戶將創(chuàng)作工具裝進(jìn)口袋,同時無需擔(dān)心隱私問題。我們還看到了 AI PC 的興起 —— 這類下一代筆記本和臺式機(jī)配備了專用 NPU,以加速本地推理,并提供更強(qiáng)的生產(chǎn)力、創(chuàng)造力和安全功能。

物聯(lián)網(wǎng) (IoT) 和智能家居生態(tài)系統(tǒng)是邊緣 AI 應(yīng)用的肥沃土壤。智能音箱、攝像頭和傳感器如今能夠在本地處理指令并檢測異常情況,從而減少響應(yīng)時間并降低對云端的依賴。AI 驅(qū)動的自動化系統(tǒng)能夠?qū)W習(xí)家庭使用模式,優(yōu)化能源使用、安全性和舒適度,而無需將敏感數(shù)據(jù)傳輸?shù)竭h(yuǎn)程服務(wù)器。預(yù)測分析能力使智能家居系統(tǒng)能夠根據(jù)歷史模式預(yù)判需求 —— 比如在住戶回家之前調(diào)節(jié)溫度,或在家電故障發(fā)生前發(fā)現(xiàn)潛在問題。

汽車領(lǐng)域的邊緣 AI 實現(xiàn)了自適應(yīng)巡航控制、個性化信息娛樂以及駕駛員和乘客監(jiān)控等功能 —— 這些都依賴于在車輛上直接運(yùn)行的特定應(yīng)用模型。先進(jìn)駕駛輔助系統(tǒng) (ADAS) 利用車載神經(jīng)網(wǎng)絡(luò)即時識別道路危險、行人和交通標(biāo)志,能夠進(jìn)行瞬間干預(yù),從而幫助挽救生命。通過將 AI 推理轉(zhuǎn)移到邊緣,汽車制造商能夠滿足消費(fèi)者對響應(yīng)速度、安全性和個性化日益增長的期待,同時減少在此類功能上對云端的依賴。

可穿戴設(shè)備和醫(yī)療器械從邊緣 AI 能力中受益巨大。智能手表和健身追蹤器如今可以進(jìn)行復(fù)雜的健康監(jiān)測,檢測心律不齊、睡眠呼吸暫停,甚至是糖尿病或房顫等疾病的早期跡象 —— 同時將敏感的健康數(shù)據(jù)保存在設(shè)備上。配備邊緣 AI 的醫(yī)療設(shè)備能夠在沒有可靠互聯(lián)網(wǎng)連接的偏遠(yuǎn)地區(qū)提供 AI 輔助診斷,讓更多人能夠公平地獲得醫(yī)療專業(yè)知識。

前面我們提到了物理 AI。在工業(yè)和機(jī)器人領(lǐng)域,工廠車間如今采用了視覺檢測系統(tǒng),能夠在毫秒級時間內(nèi)以超越人類的準(zhǔn)確度識別缺陷,從而提高產(chǎn)品質(zhì)量并減少浪費(fèi)。預(yù)測性維護(hù)算法在本地分析設(shè)備的振動、聲音和溫度模式,以便在故障發(fā)生之前進(jìn)行預(yù)判,大幅降低了停機(jī)時間。自主機(jī)器人和協(xié)作機(jī)器人 (cobot) 利用車載 AI 在動態(tài)環(huán)境中自主導(dǎo)航,并能在無需持續(xù)網(wǎng)絡(luò)連接的情況下安全地與人類協(xié)作。

DeepSeek 與超高效 AI 模型的崛起

DeepSeek 在 2025 年 1 月宣布出的顯著效率提升,最初可能會讓人覺得未來 AI 對計算硬件的需求會減少。事實上,這一消息曾在短期內(nèi)引發(fā)了對數(shù)據(jù)中心投資前景的質(zhì)疑。然而,杰文斯悖論揭示了另一番景象。該理論以威廉·斯坦利·杰文斯(William Stanley Jevons)命名。杰文斯在 19 世紀(jì)首次觀察到,技術(shù)進(jìn)步提高了資源使用效率后,資源的總體消耗量不僅沒有減少,反而增加了。他發(fā)現(xiàn),隨著燃煤工廠、機(jī)器和船舶變得更高效,煤炭的成本下降,這促使人們發(fā)明出更多利用煤炭的方法,進(jìn)而推動了煤炭的總體消耗量上升。對于計算資源來說,情況也是如此。

盡管 DeepSeek 證明了模型在單 token 計算成本降低 94% 的情況下仍可媲美昂貴的競品方案,但對 AI 芯片的需求卻出現(xiàn)了悖論式激增。事實上,OpenAI 聯(lián)合創(chuàng)始人 Sam Altman 表示,GPT-4.5 的使用量受到限制,并非因為需求不足,而是由于用戶量增長迅猛導(dǎo)致可用 GPU 容量短缺。為了應(yīng)對日益嚴(yán)峻的基礎(chǔ)設(shè)施限制和競爭壓力,微軟、Google、Meta 和亞馬遜云科技 (AWS) 等主要云服務(wù)提供商已宣布計劃在 2025 年投資數(shù)千億美元用于 AI 芯片和數(shù)據(jù)中心 —— 這一數(shù)額比他們 2024 年創(chuàng)紀(jì)錄的支出高出近 50%。

這種模式與我們在計算歷史中反復(fù)看到的情況如出一轍。摩爾定律在 70 年間推動了計算效率的10 億倍提升,但我們并沒有用一枚硬幣大小的處理器來滿足全球的全部計算需求。相反,計算能力已經(jīng)遍布整個經(jīng)濟(jì)體系,催生了對芯片前所未有的需求。AI 正在沿著同樣的軌跡演進(jìn),但速度更為驚人 —— 其效率提升速度達(dá)每年 13.8 倍,而摩爾定律是每兩年才實現(xiàn)兩倍增長。

我們交付 AI 能力的效率越高,我們發(fā)現(xiàn)的應(yīng)用場景就越多,最終為了滿足人類對 AI 的渴望,我們所需的計算資源也就越多。換句話說,你是希望指尖只有一個愛因斯坦,還是無數(shù)個愛因斯坦隨時為你所用?

邊緣 AI 硬件的未來:CPU 與加速器

正如杰文斯悖論指出的那樣,AI 效率的提升推動了AI 需求的持續(xù)增長,問題不再僅僅是需要多少計算能力,而是需要什么樣的計算能力。這一不斷擴(kuò)展的 AI 應(yīng)用范圍需要專門針對機(jī)器學(xué)習(xí)獨(dú)特計算模式優(yōu)化的硬件架構(gòu)。盡管行業(yè)在算法效率方面取得了顯著進(jìn)步,但支撐這些算法運(yùn)行的物理基礎(chǔ)仍然至關(guān)重要。

尋找最佳平衡:邊緣端的 CPU 與加速器

當(dāng)今的 AI 革新需要合適的計算基礎(chǔ)。雖然 CPU曾能勝任基礎(chǔ)的 AI 任務(wù),但現(xiàn)代 AI對算力的需求已不止于此。解決方案并非在 CPU 與專用 AI 加速器之間二選一,而是戰(zhàn)略性地將它們協(xié)同整合起來。

這種平衡的方法打造了一個最優(yōu)的系統(tǒng):CPU 負(fù)責(zé)籌通用計算任務(wù),而專用加速器則專注處理密集的 AI 工作負(fù)載。這意味著設(shè)備能夠同時提供高性能和高效率——這對于需要保護(hù)數(shù)據(jù)隱私、降低延遲并最小化功耗的邊緣 AI 部署至關(guān)重要。

高性能矩陣運(yùn)算構(gòu)成了神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)基礎(chǔ)。這些運(yùn)算涉及同時對大量數(shù)字?jǐn)?shù)組進(jìn)行乘法和變換——這項任務(wù)非常適合 GPU 和 NPU,它們憑借并行處理架構(gòu)在這方面表現(xiàn)出色。例如,現(xiàn)代智能手機(jī)中的 NPU 可以同時處理數(shù)千次矩陣計算,通過運(yùn)行復(fù)雜的分割模型,將拍攝對象與背景分離,實現(xiàn)實時的人像模式拍攝。

低延遲的實時處理對于那些“延遲即失敗”的應(yīng)用來說至關(guān)重要。以自動駕駛汽車為例,毫秒級的差異可能就是碰撞與避免碰撞的差別。針對邊緣計算優(yōu)化的 AI 芯片能夠以亞毫秒的響應(yīng)時間處理來自多路攝像頭和傳感器的數(shù)據(jù),在本地執(zhí)行目標(biāo)檢測和軌跡計算,規(guī)避云端方案所帶來的延遲。高度優(yōu)化的異構(gòu)計算平臺能夠最小化實時處理延遲 —— 這在工業(yè)自動化等用例中是必不可少的要求。

高能效的 AI 執(zhí)行需要在性能和能耗之間實現(xiàn)精準(zhǔn)平衡。這對于依賴電池供電的設(shè)備來說尤為必要,因為在這些設(shè)備中,每一毫瓦都至關(guān)重要。與通用處理器相比,AI 加速器通常能實現(xiàn)每瓦性能比的顯著提升。一塊配備專用 NPU 的智能手表可以在僅消耗幾毫瓦的情況下持續(xù)監(jiān)測心律異常,從而使設(shè)備能夠維持?jǐn)?shù)天的電池續(xù)航時間。

將這些加速器能力與傳統(tǒng) CPU 的優(yōu)勢相結(jié)合,創(chuàng)造了一種“1+1>2”的整體協(xié)同效應(yīng):CPU 擅長順序處理、決策邏輯和處理多樣化工作負(fù)載,而 AI 加速器則為神經(jīng)網(wǎng)絡(luò)計算提供強(qiáng)大的計算能力。

讓我們看看這種平衡方法如何轉(zhuǎn)化為可衡量的業(yè)務(wù)成果。最新的基準(zhǔn)測試表明,Arm 技術(shù)正在為實現(xiàn)有意義的 AI 部署提供所需的性能、效率和可擴(kuò)展性 —— 從智能手機(jī)到工業(yè)設(shè)備。這些指標(biāo)展示了當(dāng)企業(yè)采用恰當(dāng)?shù)?CPU 處理與專用加速結(jié)合時,可以實現(xiàn)的潛力。

大語言模型 (LLM) 推理的關(guān)鍵性能基準(zhǔn)

要實現(xiàn)無縫的設(shè)備端 AI 體驗,需要將多種計算技術(shù)合理組合,并針對不同類型的工作負(fù)載進(jìn)行優(yōu)化。以下介紹了 Arm CPU、NPU 以及 KleidiAI 如何在 LLM、生成式 AI、語音和視覺等多種 AI 任務(wù)和工作負(fù)載中,提供多樣化的性能和能效提升。

CPU:高效的設(shè)備端 LLM

Arm CPU 現(xiàn)在正在為移動設(shè)備上的實時 AI 體驗提供動力,包括高效運(yùn)行像 Llama 3.2(10 億個 token)這樣的超大語言模型:

· 與以往方法相比,關(guān)鍵語言任務(wù)的性能提升了 5 倍

· 多消息摘要響應(yīng)時間僅需 2 秒

· 內(nèi)存使用量降低了40% 以上,使得在小型設(shè)備上也能實現(xiàn)更流暢的性能

· 模型體積縮小了50% 以上,加快了下載和安裝速度

這些改進(jìn)使得在手機(jī)和 PC 上運(yùn)行強(qiáng)大的 AI 應(yīng)用成為可能 —— 無需依賴 GPU 或云端連接。

NPU:邊緣端的極致性能

當(dāng)需要更高要求的 AI 工作負(fù)載時 —— 比如高級助手、圖像識別或設(shè)備端翻譯 —— Arm NPU能夠提供所需的加速支持:

· 能夠完全在設(shè)備端運(yùn)行復(fù)雜的 Transformer 模型(如 BERT)

· 以實時性能支持像 Llama2-tiny 這樣的小型 LLM

· 能效比上一代 AI 硬件提升高達(dá) 78%

· 在輕量級模型上每秒可處理超過 4,000 次推理

· 支持高性能應(yīng)用場景,如可穿戴設(shè)備、車輛和智能攝像頭中的實時視頻處理 —— 且具備低功耗特性。

KleidiAI:全棧加速規(guī)模與速度

KleidiAI 是 Arm 推出的 AI 軟件庫,可在基于 Arm 架構(gòu)的云基礎(chǔ)設(shè)施和邊緣設(shè)備上提升各種 AI 工作負(fù)載的性能 —— 從語言模型到語音識別,再到計算機(jī)視覺:

· 加速提示響應(yīng)和 token 生成等關(guān)鍵語言任務(wù)

· 為 Llama 和 Gemma 等模型提供高達(dá) 18 倍的推理速度提升

· 相較于同類 x86 和 GPU 配置,成本效率提升可高達(dá) 3.5 倍

· 在語音識別和圖像處理方面實現(xiàn)多倍性能提升

· 與 PyTorch、TensorFlow 等業(yè)界標(biāo)準(zhǔn)工具深度集成,使開發(fā)者能夠輕松利用這些速度優(yōu)勢。

這些性能指標(biāo)直接轉(zhuǎn)化為競爭優(yōu)勢 —— 無論你是推出 AI 驅(qū)動的消費(fèi)產(chǎn)品,還是擴(kuò)展企業(yè)級解決方案。通過采用 CPU 和加速器技術(shù)的最佳組合,企業(yè)能夠在控制成本、能耗和部署復(fù)雜度的同時,提供更強(qiáng)大的 AI 體驗。

借助 Arm 開發(fā)者中心加速開發(fā)

為了助力開發(fā)者與企業(yè)在邊緣側(cè)構(gòu)建創(chuàng)新應(yīng)用,Arm 推出了Arm開發(fā)者中心——這是一個經(jīng)過優(yōu)化的開源和專有模型集合,專為基于 Arm 的 CPU、GPU 和 NPU 設(shè)計,助力其高效運(yùn)行。通過為邊緣性能預(yù)先調(diào)優(yōu)的模型,開發(fā)者能夠快速評估和部署解決方案,覆蓋從可穿戴設(shè)備到 AI PC 再到汽車平臺的各種設(shè)備。Arm 開發(fā)者中心通過支持即插即用的頂級 AI 模型實驗,消除技術(shù)試錯成本,開箱即用,加速了價值實現(xiàn)周期。

賦能開發(fā)者打造新一代邊緣 AI

開發(fā)者是邊緣 AI 成功的核心,Arm 致力于讓開發(fā)者能夠輕松地在其生態(tài)系統(tǒng)中構(gòu)建、優(yōu)化和部署模型。Arm 開發(fā)者中心提供預(yù)優(yōu)化模型,用于加速原型設(shè)計,而 KleidiAI 則確保了基于 Arm 的硬件的無縫性能調(diào)優(yōu)。Arm 還提供與 PyTorch、TensorFlow 和 ONNX Runtime 等流行的機(jī)器學(xué)習(xí)框架集成的AI 性能庫、編譯器和工具鏈。無論是在云端還是在邊緣進(jìn)行開發(fā),開發(fā)者都可以依靠廣泛的支持、業(yè)界領(lǐng)先的文檔以及無可比擬的靈活性來構(gòu)建可擴(kuò)展的 AI 應(yīng)用。

總結(jié):AI 擴(kuò)張的時代

AI 推理的發(fā)展方向

在接下來的十年中,我們將見證 AI 從以云端為中心向復(fù)雜的混合架構(gòu)的根本性轉(zhuǎn)變,這種架構(gòu)平衡了集中式和分布式智能。

模型將繼續(xù)朝著更小、更快、更高效的方向快速發(fā)展。然而,與直覺相反的是,這些效率的提升并不會減少 AI 的部署,反而會極大地加速這一進(jìn)程。隨著部署門檻的降低,以前不切實際的 AI 應(yīng)用變得可行,從而形成創(chuàng)新與應(yīng)用的良性循環(huán)。

AI 硬件的重要性

盡管在算法效率方面取得了令人矚目的進(jìn)步,但支撐 AI 運(yùn)行的物理基礎(chǔ)依然至關(guān)重要。未來屬于那些能夠無縫集成 CPU 與 NPU、GPU 等專用加速器的計算子系統(tǒng),每種處理器都負(fù)責(zé)最適合其優(yōu)化方向的工作負(fù)載。CPU 將管理控制流、系統(tǒng)操作和順序任務(wù),而加速器則處理那些構(gòu)成機(jī)器學(xué)習(xí)基礎(chǔ)的高強(qiáng)度矩陣計算和模式識別。這種異構(gòu)計算環(huán)境將成為整個計算領(lǐng)域的常態(tài),從大型數(shù)據(jù)中心到微型嵌入式設(shè)備都會普及。

加速 AI 革命

我們正處于各行各業(yè)熱情擁抱 AI 的初期階段。智能正被嵌入到過去不具備智能的流程、產(chǎn)品和服務(wù)中 —— 從農(nóng)業(yè)到制造業(yè),從醫(yī)療到交通運(yùn)輸,從教育到娛樂。這場變革的廣度與深度,遠(yuǎn)非言語所能盡述。

那些昨天還無法證明實施 AI 成本合理性的公司,明天將認(rèn)為它是不可或缺的;而那些已經(jīng)在使用 AI 的公司則將大幅擴(kuò)展其部署規(guī)模。

這一趨勢最深遠(yuǎn)的意義在于,我們并沒有接近 AI 的終點,而是正站在一個充滿無限可能的新技術(shù)前沿的起點。在AI 生態(tài)系統(tǒng)中,公司所展示的效率突破并不是技術(shù)走向成熟和穩(wěn)定的信號,而是預(yù)示著一場智能革命的初步跡象,這場革命將重塑我們的世界。

Arm 為邊緣 AI 時代而生

數(shù)十年來,Arm 一直走在邊緣計算的前沿 —— 為全球超過 99% 的智能手機(jī)和數(shù)十億臺物聯(lián)網(wǎng)設(shè)備提供動力。憑借在移動生態(tài)系統(tǒng)中的無可比擬的覆蓋范圍、高能效計算的技術(shù)積淀以及與生態(tài)伙伴的深厚合作關(guān)系,Arm 在引領(lǐng)邊緣 AI 轉(zhuǎn)型方面具備獨(dú)特的優(yōu)勢。我們的架構(gòu)已深度融入AI 效率革命的關(guān)鍵應(yīng)用設(shè)備中 —— 包括手機(jī)、可穿戴設(shè)備、汽車、智能攝像頭和工廠設(shè)備。這一規(guī)模為邊緣 AI 的普及提供了巨大的發(fā)展空間。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉