現在科技領域最火的是什么?人工智能、機器學習、深度神經網絡顯然是熱點中的熱點。太多我們認識中的不可能,被強大的機器學習、人工智能給顛覆了。
比如去年Deepmind的AlphaGo就在圍棋領域戰(zhàn)勝了世界冠軍李世石,讓人感覺不可思議,在AlphaGo之前的軟件,連業(yè)余六段左右的高手都贏不了,更遑論頂級職業(yè)選手!如果你是程序高手,有想法,是不是可以自己在家也能玩機器學習呢?稍微研究的深入一點,發(fā)現完全不是這么回事兒。
筆者有朋友的孩子想在圍棋上有所建樹。他發(fā)現,下圍棋的課外輔導班要花錢,找人指導下棋也要花錢,并且隨著孩子棋力水漲船高,是以幾何級數的價格增加的。他又聽說人工智能的圍棋已經很厲害了,能不能干脆一次性投資,弄個下圍棋很厲害的軟件與配置,這樣就相當于一直與一個高手下對手棋,對棋力增長是有好處的。
4路TItan X,2路至強E5已經很強……
我一想,這邏輯也說得通,AlphaGo不也贏了人類高手并且人類在學AlphaGo下棋嗎?于是找了找,目前使用6700K處理器的計算機跑日本圍棋軟件Zen,可以有業(yè)余五六段的棋力,但這顯然不是他想要的。前幾天與趙治勛對弈的deepzen,配置要高很多,核心是2個至強E5 V4與4個TItan X做GPU計算,雖然不敵趙治勛,但畢竟顯示出來了可觀的棋力。
前幾天Deepmind團隊又放出了消息,棋力大漲,明年初開始重新下棋。我突發(fā)奇想,反正這老哥也不差錢,如果谷歌團隊公開了軟件,會不會可以自己弄個單機版的AlphaGo?天天和比李世石更厲害的AI下圍棋肯定漲棋力更快啊。但是仔細一研究,不是這么回事兒,AlphaGo用的處理器,買!不!到!
谷歌人工智能的處理器TPU
這個表是谷歌發(fā)表《自然》雜志論文的時候給出的配置與棋力預估。當時只是說要多少CPU與GPU以及對應的棋力。如果說一個CPU對應一個核心,現在的至強E5V4,已經有22核心的產品了,而如果是對應一個CPU,那么48個CPU可能就要很貴的刀片服務才行了,當然了有萬能的淘寶,二手機架式的刀片服務器也貴不到哪兒去。
Deepmind團隊公布的當時的配置,似乎讓人覺得單機版的AlphaGo并非遙不可及,且棋力足夠,在今年5月,谷歌又公布了其自己定制的處理器的細節(jié)。谷歌用的并非Intel或是AMD的處理器,而是自己針對機器學習優(yōu)化過的處理器,并命名為“張量處理單元(tensorflow process unit,TPU)。而AlphaGo就是構建在TPU上的。
TPU的作用就是給機器學習的神經網絡加速。谷歌對TPU具體怎么工作、有哪些指令都語焉不詳,作為局外人能獲得的信息有限,甚至連哪個半導體工廠代工的都沒人知道。谷歌說TPU是一種輔助運算工具,還是要有CPU和GPU的。核心在于TPU是8位的,而我們的處理器是64位,因此在神經網絡計算上,TPU的單位功耗貢獻的計算能力上,要比傳統(tǒng)的CPU有很大的優(yōu)勢,更適合大面積的分布式的計算。
IBM對于計算機模擬神經的計算啟動,可能要比其它的企業(yè)更早。而研究的起源,也不能說全自主的,而是有外界的因素,那就是DARPA(國防部高級計劃研究局)。
IBM研究模仿大腦的神經計算,也來自于DARPA。自從2008年以來,DARPA給了IBM5300萬美元用來研究SyNapse(Systems of Neuromorphic AdapTIve PlasTIc Scalable Electronics,自適應可伸縮神經系統(tǒng),縮寫的SyNapse單詞正好是觸突,神經的構成部分),而TrueNorth只是這個項目的一部分成果而已。
IBM的TrueNorth芯片
這項研究的意義是,我們今天的計算機,處理和存儲是分離的,高度依賴總線進行數據傳輸交換,即所謂馮·諾依曼體系。我們大腦的處理方式則不同,要知道神經的傳輸速度并不快,但是大腦的優(yōu)勢是腦細胞多,靠的是大量分布式的處理,現有的模仿大腦的辦法,還是依賴處理器的數量堆積,所以能效比不高,而IBM的TrueNorth則是要打破這個屏障,在芯片上就完成對神經元的模擬。2011年的原型就有256個神經元的原型。
2014年,IBM的可編程神經元達到了4096個,可編程觸突2.56億,聯(lián)合神經處理器有4096個??梢哉fIBM的TrueNorth是無心插柳,研究啟動的早,業(yè)內深度學習熱、神經網絡熱的時候,這顆處理器也成熟了,在IBM和DARPA的網站上,都有給予這個芯片進行視頻內容識別計算的成果演示,非常有意思,可以去看看。
微軟的FPGA
微軟啟動Project Catapult還是在2012年。當時微軟的掌舵人還是史蒂夫鮑爾默。微軟發(fā)現,硬件提供商無法提供他們需要的硬件。過去微軟每年都要花費數十億美元來購置硬件,但現有的硬件對機器學習這些搜索算法的效
當年比特幣挖礦機,FPGA顯示出來比顯卡高效、省電得多的特性
微軟的路線是是通過FPGA(field programmable gate arrays,現場可編程門陣列),它的特色是進行并行計算。還記得幾年前的比特幣狂潮嗎?最開始人們是依賴顯卡或是GPU,到后來礦機的出現,就是用的FPGA的能力來進行挖礦,當時也有瘋狂的人挖到了第一桶金。
運行Bing頁面排名服務下,FPGA協(xié)助與沒有協(xié)助的對比
微軟的FPGA被應用到了包括bing搜索引擎等領域,能夠顯著的提升效率。FPGA雖然編程困難,但是微軟正在嘗試將更多的應用,比如Office365等,加入到通過FPGA來提升服務質量上。微軟的FPGA來自Altera,有趣的是,英特爾以167億美元收購了這個公司,是英特爾史上最大的并購。
英特爾:研發(fā)與收購并駕齊驅
前面我們說了,微軟和英特爾這對長期的伙伴,在微軟的FPGA使用的是來自Altera的技術,英特爾就收購了這個FPGA與SoC的企業(yè),現在再訪問Altera的官網,已經是我們熟悉的Intel的Logo加上FPGA了,并且內容上也是機器學習、自動駕駛等熱門內容。
當然英特爾作為處理器、半導體領域的翹楚,對行業(yè)的觀察要比別人透徹得多。雖然旗下產品多來自于傳統(tǒng)CPU,但是英特爾一樣有核心產品,在機器學習領域有競爭力,那就是至強phi融核處理器與至強phi協(xié)處理器。
發(fā)展順序是這樣的,英特爾現有的至強phi協(xié)處理器用來加速計算,后推出的之前phi融核處理器。融核處理器通過英特爾OPA來改變高性能計算的能耗效率與空間效率。在英特爾的官方新聞中,我們也看到了英特爾關于至強phi在加速機器學習的速度表現。當然了,英特爾也沒停止收購的步伐,有很多人工智能領域的公司被英特爾收入囊中。
如果我想從事該領域?
作為最火的領域,人工智能、機器學習、深度神經網絡這些詞語見諸媒體很多,并且基本上企業(yè)開出的薪水+股票都非常誘人,可以說能人處于哄搶狀態(tài),價高者得。還記得AlphaGo的Deepmind嗎?它們最近也有招聘啟事。
從招聘的信息看,如果想成為Deepmind的研究科學家,一般來說要有神經、計算機領域的博士(PhD)頭銜以及靠譜的論文,他們才會考慮了,當然其它崗位可能要求會低一些。
現在雖然火爆,但是實際上深度神經網絡系統(tǒng)并不是太多,因此,高薪并從事前沿研究,并非那么容易,在看本文的讀者群中,肯定有大學的在校生,多讀書、努力學習,考上世界一流大學的計算機、神經等領域的專業(yè),是從事機器學習、深度神經網絡、人工智能這些領域的捷徑,并且我們可以看到,專門為機器學習優(yōu)化的硬件其實剛剛上路,未來很長的時間內,這個領域依舊會持續(xù)火熱,因為世界上的深度神經網絡系統(tǒng)其實也并不多。
一個人的命運啊,當然要靠自我奮斗,但是也要考慮歷史的進程。而歷史剛剛打開人工智能的窗口,距離里面的殿堂還有很長的路要走,這個歷史的機遇已經在面前了,是自我奮斗改變命運的時刻了,少年們。
回歸本文題目的問題,事實上今天的機器學習、人工智能,最多的還是至強+GPU的架構,但是定制的TPU、FPGA進行協(xié)處理,有事半功倍的效率。筆者個人認為,目前的形式恐怕已經不是效率最高的辦法,在未來機器大腦或許真的比我們更聰明。