www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀] Pybrain號稱最好用的Python神經(jīng)網(wǎng)絡(luò)庫。其實Scikit-Learn號稱Python上最好用的機器學(xué)習(xí)庫,但是它偏偏就沒有神經(jīng)網(wǎng)絡(luò)這塊,所以就與我無緣了。 之前也看過一些提到N

Pybrain號稱最好用的Python神經(jīng)網(wǎng)絡(luò)庫。其實Scikit-Learn號稱Python上最好用的機器學(xué)習(xí)庫,但是它偏偏就沒有神經(jīng)網(wǎng)絡(luò)這塊,所以就與我無緣了。

之前也看過一些提到Neurolab這個庫的,打算之后嘗試一下(好像支持的神經(jīng)網(wǎng)絡(luò)不太一樣)。

Pybrain的文檔傳說中寫得不錯,但是我需要的例子它并沒有。官方文檔給的例子是用于分類的,而不是數(shù)據(jù)擬合(預(yù)測,或者叫做回歸問題)。

另外,官方文檔的函數(shù)(方法)說明并不全,有一些需要自己通過help函數(shù)在python shell里調(diào)用,或者直接閱讀源代碼。

好了言歸正傳。大概分為以下這幾步。
. 構(gòu)造神經(jīng)網(wǎng)絡(luò)
. 構(gòu)造數(shù)據(jù)集
. 訓(xùn)練神經(jīng)網(wǎng)絡(luò)
. 結(jié)果可視化
. 驗證與分析

構(gòu)造神經(jīng)網(wǎng)絡(luò)

可以采用快速建立神經(jīng)網(wǎng)絡(luò)的模式,也可以自己設(shè)定神經(jīng)網(wǎng)絡(luò)。這里采用第二種做法,建立的是前饋神經(jīng)網(wǎng)絡(luò)。
from pybrain.structure import *
# 建立神經(jīng)網(wǎng)絡(luò)fnn
fnn = FeedForwardNetwork()

# 設(shè)立三層,一層輸入層(3個神經(jīng)元,別名為inLayer),一層隱藏層,一層輸出層
inLayer = LinearLayer(3,)
hiddenLayer = SigmoidLayer(7,)
outLayer = LinearLayer(1,)

# 將三層都加入神經(jīng)網(wǎng)絡(luò)(即加入神經(jīng)元)
fnn.addInputModule(inLayer)
fnn.addModule(hiddenLayer)
fnn.addOutputModule(outLayer)

# 建立三層之間的連接
in_to_hidden = FullConnecTIon(inLayer, hiddenLayer)
hidden_to_out = FullConnecTIon(hiddenLayer, outLayer)

# 將連接加入神經(jīng)網(wǎng)絡(luò)
fnn.addConnecTIon(in_to_hidden)
fnn.addConnecTIon(hidden_to_out)

# 讓神經(jīng)網(wǎng)絡(luò)可用
fnn.sortModules()

構(gòu)造數(shù)據(jù)集

在構(gòu)造數(shù)據(jù)集的時候,我用的是SupervisedDataset,即監(jiān)督數(shù)據(jù)集。也可以試一試別的。
from pybrain.supervised.trainers import BackpropTrainer

# 定義數(shù)據(jù)集的格式是三維輸入,一維輸出
DS = SupervisedDataSet(3,1)

# 往數(shù)據(jù)集內(nèi)加樣本點
# 假設(shè)x1,x2,x3是輸入的三個維度向量,y是輸出向量,并且它們的長度相同
for i in len(y):
DS.addSample([x1[i], x2[i], x3[i]], [y[i]])

# 如果要獲得里面的輸入/輸出時,可以用
X = DS['input']
Y = DS['target']

# 如果要把數(shù)據(jù)集切分成訓(xùn)練集和測試集,可以用下面的語句,訓(xùn)練集:測試集=8:2
# 為了方便之后的調(diào)用,可以把輸入和輸出拎出來
dataTrain, dataTest = DS.splitWithProportion(0.8)
xTrain, yTrain = dataTrain['input'], dataTrain['target']
xTest, yTest = dataTest['input'], dataTest['target']

構(gòu)造數(shù)據(jù)集部分就這樣告一段落了。

訓(xùn)練神經(jīng)網(wǎng)絡(luò)

俗話說得好,80%的工作往往是20%的部分完成的。嗯哼,其實最重要的代碼就是如下這幾行啦。
不過調(diào)用的是別人的東西,也不知道內(nèi)部的實現(xiàn)比例,就是開個玩笑。
from pybrain.supervised.trainers import BackpropTrainer

# 訓(xùn)練器采用BP算法
# verbose = True即訓(xùn)練時會把Total error打印出來,庫里默認(rèn)訓(xùn)練集和驗證集的比例為4:1,可以在括號里更改
trainer = BackpropTrainer(fnn, dataTrain, verbose = True, learningrate=0.01)

# maxEpochs即你需要的最大收斂迭代次數(shù),這里采用的方法是訓(xùn)練至收斂,我一般設(shè)為1000
trainer.trainUntilConvergence(maxEpochs=1000)

結(jié)果可視化

數(shù)據(jù)可視化就不提了,基本上用的是Pylab來進行數(shù)據(jù)可視化,具體可見這篇博文:
Python的一些畫圖函數(shù) 。

驗證與分析

首先,我們可以挑一個隨機數(shù)據(jù)來看看結(jié)果。
import random

# c為從0到xTest的長度(包括0,不包括長度)之間的隨機值
c = random.randint(0, xTest.shape[0])

# X2為xTest的一個隨機樣本點
X2 = xTest[c,:]

# activate函數(shù)即神經(jīng)網(wǎng)絡(luò)訓(xùn)練后,預(yù)測的X2的輸出值
prediction = fnn.activate(X2)

# 可以將其打印出來
print('true number is: ' + str(yTest[c]),
'prediction number is:' + str(prediction),
'error:' + str((prediction-yTest[c])/yTest[c]))

我們可以把神經(jīng)網(wǎng)絡(luò)打印出來,此處的代碼是在stackoverflow里找到的,出處忘了,感謝那個哥們的輪子。
這樣就可以看各條連接的權(quán)重了。

for mod in fnn.modules:
print "Module:", mod.name
if mod.paramdim > 0:
print "--parameters:", mod.params
for conn in fnn.connections[mod]:
print "-connection to", conn.outmod.name
if conn.paramdim > 0:
print "- parameters", conn.params
if hasattr(fnn, "recurrentConns"):
print "Recurrent connections"
for conn in fnn.recurrentConns:
print "-", conn.inmod.name, " to", conn.outmod.name
if conn.paramdim > 0:
print "- parameters", conn.params

我們可以調(diào)用一個計時器來看程序的運行時間,判斷性能

import time

# 在需要計時的代碼前調(diào)用這個
start = time.clock()

# 在需要計時的代碼后再調(diào)用一次clock函數(shù)
elapsed = (time.clock()-start)
print("Time used:" + str(elapsed))

如果需要一些統(tǒng)計數(shù)據(jù)的話,可以自己寫一些統(tǒng)計類的函數(shù),或者找包里的tools模塊,有一些統(tǒng)計函數(shù),比如均方誤差(MSE)等。

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

LED驅(qū)動電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關(guān)鍵字: 驅(qū)動電源

在工業(yè)自動化蓬勃發(fā)展的當(dāng)下,工業(yè)電機作為核心動力設(shè)備,其驅(qū)動電源的性能直接關(guān)系到整個系統(tǒng)的穩(wěn)定性和可靠性。其中,反電動勢抑制與過流保護是驅(qū)動電源設(shè)計中至關(guān)重要的兩個環(huán)節(jié),集成化方案的設(shè)計成為提升電機驅(qū)動性能的關(guān)鍵。

關(guān)鍵字: 工業(yè)電機 驅(qū)動電源

LED 驅(qū)動電源作為 LED 照明系統(tǒng)的 “心臟”,其穩(wěn)定性直接決定了整個照明設(shè)備的使用壽命。然而,在實際應(yīng)用中,LED 驅(qū)動電源易損壞的問題卻十分常見,不僅增加了維護成本,還影響了用戶體驗。要解決這一問題,需從設(shè)計、生...

關(guān)鍵字: 驅(qū)動電源 照明系統(tǒng) 散熱

根據(jù)LED驅(qū)動電源的公式,電感內(nèi)電流波動大小和電感值成反比,輸出紋波和輸出電容值成反比。所以加大電感值和輸出電容值可以減小紋波。

關(guān)鍵字: LED 設(shè)計 驅(qū)動電源

電動汽車(EV)作為新能源汽車的重要代表,正逐漸成為全球汽車產(chǎn)業(yè)的重要發(fā)展方向。電動汽車的核心技術(shù)之一是電機驅(qū)動控制系統(tǒng),而絕緣柵雙極型晶體管(IGBT)作為電機驅(qū)動系統(tǒng)中的關(guān)鍵元件,其性能直接影響到電動汽車的動力性能和...

關(guān)鍵字: 電動汽車 新能源 驅(qū)動電源

在現(xiàn)代城市建設(shè)中,街道及停車場照明作為基礎(chǔ)設(shè)施的重要組成部分,其質(zhì)量和效率直接關(guān)系到城市的公共安全、居民生活質(zhì)量和能源利用效率。隨著科技的進步,高亮度白光發(fā)光二極管(LED)因其獨特的優(yōu)勢逐漸取代傳統(tǒng)光源,成為大功率區(qū)域...

關(guān)鍵字: 發(fā)光二極管 驅(qū)動電源 LED

LED通用照明設(shè)計工程師會遇到許多挑戰(zhàn),如功率密度、功率因數(shù)校正(PFC)、空間受限和可靠性等。

關(guān)鍵字: LED 驅(qū)動電源 功率因數(shù)校正

在LED照明技術(shù)日益普及的今天,LED驅(qū)動電源的電磁干擾(EMI)問題成為了一個不可忽視的挑戰(zhàn)。電磁干擾不僅會影響LED燈具的正常工作,還可能對周圍電子設(shè)備造成不利影響,甚至引發(fā)系統(tǒng)故障。因此,采取有效的硬件措施來解決L...

關(guān)鍵字: LED照明技術(shù) 電磁干擾 驅(qū)動電源

開關(guān)電源具有效率高的特性,而且開關(guān)電源的變壓器體積比串聯(lián)穩(wěn)壓型電源的要小得多,電源電路比較整潔,整機重量也有所下降,所以,現(xiàn)在的LED驅(qū)動電源

關(guān)鍵字: LED 驅(qū)動電源 開關(guān)電源

LED驅(qū)動電源是把電源供應(yīng)轉(zhuǎn)換為特定的電壓電流以驅(qū)動LED發(fā)光的電壓轉(zhuǎn)換器,通常情況下:LED驅(qū)動電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關(guān)鍵字: LED 隧道燈 驅(qū)動電源
關(guān)閉