大數(shù)據(jù)分析到底需要多少種工具_大數(shù)據(jù)分析總結(jié)
越來越多的應(yīng)用涉及到大數(shù)據(jù),不幸的是所有大數(shù)據(jù)的屬性,包括數(shù)量、速度、多樣性等等都是描述了數(shù)據(jù)庫不斷增長的復(fù)雜性。那么大數(shù)據(jù)給我們帶來了什么好處呢?大數(shù)據(jù)最大的好處在于能夠讓我們從這些數(shù)據(jù)中分析出很多智能的、深入的、有價值的信息。
最近比較了179種不同的分類學(xué)習(xí)方法(分類學(xué)習(xí)算法)在121個數(shù)據(jù)集上的性能,發(fā)現(xiàn)Random Forest(隨機森林)和SVM(支持向量機)分類準確率最高,在大多數(shù)情況下超過其他方法。本文針對“大數(shù)據(jù)分析到底需要多少種工具?”
分類方法大比武大數(shù)據(jù)分析主要依靠機器學(xué)習(xí)和大規(guī)模計算。機器學(xué)習(xí)包括監(jiān)督學(xué)習(xí)、非監(jiān)督學(xué)習(xí)、強化學(xué)習(xí)等,而監(jiān)督學(xué)習(xí)又包括分類學(xué)習(xí)、回歸學(xué)習(xí)、排序?qū)W習(xí)、匹配學(xué)習(xí)等(見圖1)。分類是最常見的機器學(xué)習(xí)應(yīng)用問題,比如垃圾郵件過濾、人臉檢測、用戶畫像、文本情感分析、網(wǎng)頁歸類等,本質(zhì)上都是分類問題。分類學(xué)習(xí)也是機器學(xué)習(xí)領(lǐng)域,研究最徹底、使用最廣泛的一個分支。
圖1機器學(xué)習(xí)分類體系
最近、Fernández-Delgado等人在JMLR(Journal of Machine Learning Research,機器學(xué)習(xí)頂級期刊)雜志發(fā)表了一篇有趣的論文。他們讓179種不同的分類學(xué)習(xí)方法(分類學(xué)習(xí)算法)在UCI 121個數(shù)據(jù)集上進行了“大比武”(UCI是機器學(xué)習(xí)公用數(shù)據(jù)集,每個數(shù)據(jù)集的規(guī)模都不大)。結(jié)果發(fā)現(xiàn)Random Forest(隨機森林)和SVM(支持向量機)名列第一、第二名,但兩者差異不大。在84.3%的數(shù)據(jù)上、Random Forest壓倒了其它90%的方法。也就是說,在大多數(shù)情況下,只用Random Forest 或 SVM事情就搞定了。
幾點經(jīng)驗總結(jié)大數(shù)據(jù)分析到底需要多少種機器學(xué)習(xí)的方法呢?圍繞著這個問題,我們看一下機器學(xué)習(xí)領(lǐng)域多年得出的一些經(jīng)驗規(guī)律。
大數(shù)據(jù)分析性能的好壞,也就是說機器學(xué)習(xí)預(yù)測的準確率,與使用的學(xué)習(xí)算法、問題的性質(zhì)、數(shù)據(jù)集的特性包括數(shù)據(jù)規(guī)模、數(shù)據(jù)特征等都有關(guān)系。
一般地,Ensemble方法包括Random Forest和AdaBoost、SVM、LogisTIc Regression 分類準確率最高。
沒有一種方法可以“包打天下”。Random Forest、SVM等方法一般性能最好,但不是在什么條件下性能都最好。
不同的方法,當(dāng)數(shù)據(jù)規(guī)模小的時候,性能往往有較大差異,但當(dāng)數(shù)據(jù)規(guī)模增大時,性能都會逐漸提升且差異逐漸減小。也就是說,在大數(shù)據(jù)條件下,什么方法都能work的不錯。參見圖2中Blaco & Brill的實驗結(jié)果。
對于簡單問題,Random Forest、SVM等方法基本可行,但是對于復(fù)雜問題,比如語音識別、圖像識別,最近流行的深度學(xué)習(xí)方法往往效果更好。深度學(xué)習(xí)本質(zhì)是復(fù)雜模型學(xué)習(xí),是今后研究的重點。
在實際應(yīng)用中,要提高分類的準確率,選擇特征比選擇算法更重要。好的特征會帶來更好的分類結(jié)果,而好的特征的提取需要對問題的深入理解。