AI算法的進(jìn)步速度遠(yuǎn)超硬件的摩爾定律
對(duì)于“未來的算法能與現(xiàn)有半導(dǎo)體芯片或正在開發(fā)之新運(yùn)算架構(gòu)契合”這件事,我們能抱持多大的信心?隨著算法的進(jìn)展速度超越硬件技術(shù)進(jìn)展進(jìn)步,甚至是最先進(jìn)的深度學(xué)習(xí)模型都可以被布署于只要5美元的Raspberry Pi開發(fā)板。
在1980年代的處理器上執(zhí)行目前最先進(jìn)的算法,與在目前最先進(jìn)的處理器上執(zhí)行1980年代之算法,哪一種可以算得更快?答案令人驚訝,通常是在舊處理器上執(zhí)行新算法能算得更快。雖然摩爾定律(Moore’s Law)因?yàn)槭请娮赢a(chǎn)業(yè)快速發(fā)展的驅(qū)動(dòng)力而備受關(guān)注,但它只是驅(qū)動(dòng)力的其中之一,我們經(jīng)常忘記算法的進(jìn)展速度其實(shí)在很多情況下都勝過摩爾定律。
根據(jù)德國(guó)柏林工業(yè)大學(xué)教授、知名數(shù)學(xué)家Martin Gr?tschel的觀察,在1988年需要花費(fèi)82年才能算出解答的一個(gè)線性程序設(shè)計(jì)問題,在2003年只需要1分鐘就能解決;在這段時(shí)間,硬件的速度快了1,000倍,算法的進(jìn)步則達(dá)到4萬3,000倍。
美國(guó)麻省理工學(xué)院(MIT)教授Dimitris Bertsimas的類似研究結(jié)果顯示,在1991年至2013年間,混合整數(shù)求解器(mixed integer solvers)算法速度快了58萬倍,同時(shí)間頂尖超級(jí)計(jì)算機(jī)的硬件速度只有進(jìn)步32萬倍。據(jù)說類似的結(jié)果也發(fā)生在其他類型的約束優(yōu)化(constrained opTImizaTIon)問題和質(zhì)因子分解(prime number factorizaTIon)問題中。
這對(duì)人工智能(AI)意味著什么?
過去五年來,AI無論在學(xué)界、業(yè)界或是新創(chuàng)領(lǐng)域都呈現(xiàn)爆炸性發(fā)展,最大的轉(zhuǎn)折點(diǎn)可能是發(fā)生在2012年,當(dāng)時(shí)一個(gè)來自加拿大多倫多大學(xué)(University of Toronto)的團(tuán)隊(duì)AlexNet,利用深度學(xué)習(xí)方法一舉贏得了年度計(jì)算機(jī)視覺影像辨識(shí)大賽ImageNet Large Scale Visual RecogniTIon Challenge (ILSVRC)冠軍,自此深度學(xué)習(xí)就成為實(shí)現(xiàn)AI的關(guān)鍵方程式。
計(jì)算機(jī)視覺的演進(jìn)已蔓延至自然語言處理和其他AI領(lǐng)域。智能喇叭、實(shí)時(shí)計(jì)算機(jī)翻譯、機(jī)器人對(duì)沖基金(robotic hedge funds),以及web參考引擎(web reference engines)…等等新產(chǎn)物,已經(jīng)不會(huì)再讓我們感到驚訝。
AI也成為了交通運(yùn)輸產(chǎn)業(yè)的驅(qū)動(dòng)力(這也是Autotech Ventures的投資目標(biāo)之一);我們已經(jīng)觀察到,先進(jìn)駕駛輔助系統(tǒng)(ADAS)、自動(dòng)駕駛、車隊(duì)檢測(cè)(fleet inspection)、制造質(zhì)量控制,以及車載人機(jī)接口等等應(yīng)用領(lǐng)域具備龐大的發(fā)展?jié)摿?。到目前為止,我們已?jīng)投資了幾家在諸如ADAS、自動(dòng)駕駛、視覺檢測(cè)與邊緣運(yùn)算等應(yīng)用領(lǐng)域開發(fā)AI解決方案的新創(chuàng)公司,在分析這些商機(jī)時(shí),算法和硬件之間的交互作用是我們進(jìn)行投資決策時(shí)的關(guān)鍵考慮因素之一。
大眾對(duì)AI硬件的關(guān)注
基于深度學(xué)習(xí)的AI在其轉(zhuǎn)折點(diǎn)之后,出現(xiàn)了對(duì)繪圖處理器(GPU)的強(qiáng)勁需求。由于具備很強(qiáng)的平行運(yùn)算能力,GPU對(duì)于深度學(xué)習(xí)算法所采用的邏輯碰巧能展現(xiàn)驚人效率;GPU大廠Nvidia在市場(chǎng)競(jìng)爭(zhēng)中脫穎而出,其股價(jià)從2013年到2018年上漲了20倍。
當(dāng)然,Nvidia競(jìng)爭(zhēng)對(duì)手們正在努力追趕;高通(Qualcomm)、Arm和其他公司將注意力集中在AI芯片設(shè)計(jì)上,英特爾(Intel)則收購了AI芯片新創(chuàng)公司Nervana Systems。Google、Facebook、蘋果(Apple)和亞馬遜(Amazon)紛紛投入了為自家數(shù)據(jù)中心及其他計(jì)劃開發(fā)自有AI處理器,也有一些新創(chuàng)公司(例如Graphcore、Mythic、Wave Computing、Cerebras和SambaNova)看準(zhǔn)商機(jī),試圖設(shè)計(jì)更好的圖靈機(jī)(Turing machine)系統(tǒng)。像D-wave Systems和IBM等其他一些公司也在積極探索后圖靈時(shí)代的架構(gòu)。大多數(shù)芯片開發(fā)的目標(biāo)是趕上或超過Nvidia。然而,據(jù)我們所知,大多數(shù)處理器都是針對(duì)今日的AI算法進(jìn)行設(shè)計(jì)。
盡管需要龐大的前期開發(fā)成本,我們?nèi)詫⒔?jīng)歷各種AI芯片設(shè)計(jì)的“寒武紀(jì)大爆發(fā)”。AI前景如此誘人,讓產(chǎn)業(yè)玩家愿意投入巨資開發(fā)硬件,在以往是要讓硬件與基礎(chǔ)數(shù)學(xué)算法匹配,但對(duì)于讓現(xiàn)有半導(dǎo)體芯片或正在開發(fā)的新運(yùn)算架構(gòu)能與未來的算法契合,我們有多大的信心?
有鑒于算法的演進(jìn)速度和幅度變化是如此之快,許多AI芯片設(shè)計(jì)可能還沒上市就過時(shí)了;我們推測(cè)明日的AI算法可能會(huì)需要完全不同的運(yùn)算架構(gòu)、內(nèi)存資源,以及數(shù)據(jù)傳輸能力等等條件。
盡管深度學(xué)習(xí)框架已經(jīng)出現(xiàn)很長(zhǎng)一段時(shí)間,直到最近才真正被付諸實(shí)現(xiàn),這要感謝摩爾定律所預(yù)測(cè)的硬件技術(shù)進(jìn)展。最初的數(shù)學(xué)不一定是為工程實(shí)踐而設(shè)計(jì)的,因?yàn)樵缙谘芯咳藛T無法想象今日花1,000美元就能獲得的運(yùn)算能力有多么大?,F(xiàn)今許多AI實(shí)作都是使用原始的數(shù)學(xué)模型,朝著準(zhǔn)確、簡(jiǎn)單且更深層的方向發(fā)展,或者添加更多數(shù)據(jù);但這樣只會(huì)很快消耗GPU的運(yùn)算容量。只有一小部分研究人員專注于改善基礎(chǔ)數(shù)學(xué)和算法框架的難題。
還是有很多機(jī)會(huì)認(rèn)識(shí)并利用這些新穎的數(shù)學(xué)進(jìn)展,我們所觀察到的方法包括精簡(jiǎn)冗余數(shù)學(xué)運(yùn)算(redundant mathematical operations)而減少運(yùn)算時(shí)間,將卷積壓縮到較小的矩陣而減少內(nèi)存需求,或者對(duì)加權(quán)矩陣進(jìn)行二值化(binarize)而簡(jiǎn)化數(shù)學(xué)運(yùn)算。這些是算法演進(jìn)的第一次嘗試,其發(fā)展之快已經(jīng)開始超越硬件進(jìn)展。
舉例來說,從美國(guó)加州大學(xué)伯克利分校(UC Berkeley)研究項(xiàng)目獨(dú)立的DeepScale ,就是將應(yīng)用于ADAS和自動(dòng)駕駛的AI,“塞進(jìn)”車用芯片(不是GPU),與僅采用算法的物體檢測(cè)模型相比較,他們的神經(jīng)網(wǎng)絡(luò)模型的指令周期要快30倍,同時(shí)在功耗和內(nèi)存占用方面也有很大的提升,足以在這幾年問世的現(xiàn)有硬件上執(zhí)行。
另一個(gè)算法大躍進(jìn)的案例來自美國(guó)的非營(yíng)利研究機(jī)構(gòu)艾倫人工智能研究所(Allen Institute of Artificial Intelligence),該機(jī)構(gòu)研究人員采用一種利用神經(jīng)網(wǎng)絡(luò)二值化的創(chuàng)新數(shù)學(xué)方法,已經(jīng)證明可以大幅提高速度,同時(shí)降低功耗和內(nèi)存要求;如此甚至能讓最先進(jìn)的深度學(xué)習(xí)模型布署于售價(jià)僅5美元的Raspberry Pi平臺(tái)上。研究人員最近將這種算法和處理工具獨(dú)立為一家公司XNOR.ai,旨在于邊緣設(shè)備布署AI,并進(jìn)一步推動(dòng)AI算法的進(jìn)步。
有趣的是,新的二值化框架從根本上改變了最佳處理邏輯的類型,它們不再需要解決神經(jīng)網(wǎng)絡(luò)所需的32位浮點(diǎn)卷積,而只需要進(jìn)行位計(jì)數(shù)運(yùn)算(bit counting operations)——這將改變GPU領(lǐng)域的權(quán)力平衡。此外如果這些算法與專門設(shè)計(jì)的芯片相匹配,則可以進(jìn)一步降低運(yùn)算資源需求。
算法的進(jìn)步不會(huì)停止;有時(shí)需要數(shù)年甚至數(shù)十年才能發(fā)明(或者說是發(fā)現(xiàn))新的算法。這些突破無法以與摩爾定律推動(dòng)的運(yùn)算進(jìn)展相同之方式來預(yù)測(cè)。它們本質(zhì)上是非確定性的;但是當(dāng)它們發(fā)生時(shí),整個(gè)局勢(shì)變化通常會(huì)讓現(xiàn)有的主導(dǎo)者變成脆弱的獵物。
黑天鵝效應(yīng)
暢銷書《黑天鵝效應(yīng):如何及早發(fā)現(xiàn)最不可能發(fā)生但總是發(fā)生的事》(The Black Swan: The Impact of the Highly Improbable)的作者在書中闡明,最佳決策在很大程度上取決于分析過程是不可預(yù)測(cè)或不確定;換句話說,我們是在處理“已知的未知”(known unknowns)還是“未知的未知”(unknown unknowns)?算法創(chuàng)新基本上是未知的未知,因?yàn)樗鼈兊陌l(fā)現(xiàn)時(shí)間不確定以及影響不可預(yù)測(cè),押注于這類發(fā)展需要持續(xù)的關(guān)注。
然而,在應(yīng)用數(shù)學(xué)領(lǐng)域,尤其是AI應(yīng)用領(lǐng)域,在最近二十年內(nèi)出現(xiàn)了數(shù)次顛覆性的算法發(fā)現(xiàn),它們與GPU一起,將AI從一個(gè)不起眼的研究領(lǐng)域帶到了商業(yè)化最前線。
我們意識(shí)到這些運(yùn)算領(lǐng)域“黑天鵝”的潛力,它們將使現(xiàn)有芯片架構(gòu)成為過去,或者在一夜之間讓它們的市場(chǎng)地位重新洗牌。對(duì)我們來說,這些「黑天鵝」最后可能會(huì)實(shí)現(xiàn)更安全的自動(dòng)駕駛車輛,以及許多其他未知的應(yīng)用案例。
來源:電子工程專輯