仿生學是一種復制自然結構的科學斜線藝術,并不是一個新概念。幾十年來,我們一直在嘗試復制生物大腦來制造高效的計算機,只是因為我們不知道生物智能究竟是如何工作的這一事實而略有阻礙。憑借我們最好的猜測,我們開發(fā)了基于人腦的神經元和尖峰神經網絡模型,我們現(xiàn)在正嘗試在硅中開發(fā)這些模型。硅仿制品通常使用簡化版本的神經元,但它們仍然可以為需要快速、節(jié)能處理以做出決策的邊緣應用提供明顯的優(yōu)勢。
深度學習是一項革命性的偉大技術。英特爾(Intel)和英偉達(NVIDIA)等廠商正在積極滿足深度學習提出的計算需求,而許多初創(chuàng)公司則在提供改進計算的新方案。他們之中的大部分都采用了“馮·諾依曼”計算架構,但是,一些新興的計算廠商提出要擺脫當前的人工智能(AI)限制。神經形態(tài)公司就是倡導新AI模式的先行者之一
神經形態(tài)計算基于大腦如何利用神經元、突觸和稱為“尖峰”的數(shù)據(jù)格式實際處理信息。尖峰神經元能夠比使用浮點值的“感知器”式神經元模型更好地模仿大腦活動,后者是AI行業(yè)目前的神經元參考模型。
所有的神經網絡都包含對“神經細胞”及其之間加權連接的某種形式的模擬或仿真。在神經形態(tài)學方法中,我們有尖峰神經元以及神經細胞之間具有記憶的連接(我們稱之為突觸)。當輸入值的總和超過閾值時,神經元執(zhí)行突觸輸入的空間和時間積分,并產生一個或一系列尖峰。
在大腦中,大多數(shù)信息都以尖峰或一系列尖峰的形式發(fā)送。神經元之間也有直接的電連接。尖峰是表明某一事件發(fā)生的短暫能量爆發(fā)。當收到尖峰信號時,存儲在突觸中的值會釋放。數(shù)字尖峰是某一事件在給定時間觸發(fā)的值。此事件可以是物理世界中的任何事件,例如,圖像中物體邊緣的明暗過渡。尖峰包含有關其空間分布、強度和發(fā)生時間的信息。
在生物神經元中,突觸權重值是一個模擬電位,這些電位的集合導致神經細胞的膜電位增加或減少。生物和數(shù)字神經元尖峰始終是二進制的,即有尖峰或者沒有尖峰。在Akida的數(shù)字神經元仿真中,所有這些電位都被模擬為整數(shù)值。不過,時間方面并沒有丟失?;谑录奶幚硎巧窠浶实闹匾M成部分,尖峰時間是其學習機制的核心
ABI Research 報告稱,2027 年將出貨 46 億個傳感器,嵌入到智能家居設備、機器人和電器中,高于 2021 年的 18 億個。這些額外的傳感器將支持現(xiàn)有的和新的功能,從而導致傳感器數(shù)據(jù)激增這將需要處理。雖然到 2027 年絕大多數(shù)智能家居設備和電器都將具備互聯(lián)網連接功能,但云可能不是處理這些數(shù)據(jù)的最佳場所。在云中托管和處理這些數(shù)據(jù)會產生一定的成本,速度很慢,而且會涉及隱私問題。
實時處理傳感器數(shù)據(jù)(非常接近傳感器)的最佳選擇可能是神經形態(tài)計算。神經形態(tài)計算系統(tǒng)的演示證明了該技術在邊緣超快速、超低功耗決策方面的價值。計算和神經形態(tài)計算中的仿生學有望為邊緣設備帶來全新的智能水平,從而使在能耗和速度受到極端限制的設備中增加決策能力成為可能。隨著尖峰網絡和專用硬件的不斷發(fā)展,影響將變得更加明顯。
Neuromorphic 的競爭對手深度學習(當今大多數(shù)主流 AI 的范式)正在快速發(fā)展。今天,在一個低于 1 美元的微控制器上進行小型深度學習應用程序很容易,包括關鍵字定位和基本圖像處理。但神經形態(tài)概念更進一步,將其壓縮到微不足道的能量預算中。這些技術會在邊緣競爭還是共存?最有可能的中期情景是共存——邊緣有數(shù)百萬個用例,有數(shù)百萬個細分市場,出于技術或商業(yè)原因,有些可能更適合神經形態(tài)計算。
雖然加速計算/特定領域計算在一定程度上規(guī)避了摩爾定律的消亡,但它仍然是計算架構的靈活性和性能之間的一個棘手平衡,尤其是對于像人工智能這樣快速發(fā)展的工作負載。從已知最高效的計算機——人腦——中汲取靈感,并以數(shù)百萬年進化的結果為起點,這感覺像是一個安全的賭注。