新聞中心

EEPW首頁 > EDA/PCB > 設(shè)計應(yīng)用 > Matlab語言的Neural Network Toolbox 及其在同步中

Matlab語言的Neural Network Toolbox 及其在同步中

作者: 時間:2012-09-11 來源:網(wǎng)絡(luò) 收藏

子對象結(jié)構(gòu)中包含了網(wǎng)絡(luò)單個對象的信息。神經(jīng)元的每一層有相同的傳輸函數(shù)net.transferFcn和網(wǎng)絡(luò)輸入函數(shù)net.netInputFcn,對于創(chuàng)建感知機采用hardlim和netsum函數(shù)。如果神經(jīng)元要有不同的傳輸函數(shù),則將設(shè)計不同的層以滿足要求。參數(shù)net.Input-Weights和net.layerWeights描述了被應(yīng)用的訓(xùn)練函數(shù)以及它們的參數(shù)。

接下來敘述訓(xùn)練函數(shù)、初始化函數(shù)和性能函數(shù)。

trainFcn和adaptFcn是2種不同的訓(xùn)練方式,分別指批處理方式和增加方式或稱在線方式。通過設(shè)置trainFcn的參數(shù),就可以告訴哪種運算法被使用;在運用循環(huán)順序增加方式時,多用trainc函數(shù)。ANN工具箱包含大約20個訓(xùn)練函數(shù)。性能函數(shù)用來測定ANN完成規(guī)定任務(wù)時的性能。對于感知機,它的平均差錯性能測定用函數(shù)mae;對于線性衰退系統(tǒng),它的均方根差錯性能測定用函數(shù)mae。initFcn函數(shù)用來初始化網(wǎng)絡(luò)的權(quán)重和偏置。神經(jīng)網(wǎng)絡(luò)工具箱包含在nnet目錄中,鍵入help nnet可得到幫助主題。如果要將這些函數(shù)替換為工具箱里的其他函數(shù)或者是自己編寫的函數(shù),只需把這些函數(shù)名配置新的參數(shù)即可,例如:

通過改變參數(shù),可以改變上面提到的函數(shù)的默認(rèn)行為。最經(jīng)常用到的函數(shù)的參數(shù)就是:trainParam,格式:net.trainParam.epochs,用來設(shè)置運算的時間點的最大數(shù)目;格式:net.trainParam.show,用來設(shè)置性能測定間隔的時間點的數(shù)目??梢酝ㄟ^輸入幫助help獲得更多信息。

網(wǎng)絡(luò)的權(quán)重和偏置也被存儲在下面的結(jié)構(gòu)體里面:

IW(i,j)部分是一個二維的元胞矩陣,存儲輸入j與網(wǎng)絡(luò)層i的連接的權(quán)重。LW(i,j)部分,用來存儲網(wǎng)絡(luò)層j和網(wǎng)絡(luò)層i間連接的權(quán)重。元胞數(shù)組b存儲每一層的偏置向量。

2.2 模式分類

如果一個問題可以被分解為多個模式級別,則可以用神經(jīng)網(wǎng)絡(luò)來解決這一問題。在大多數(shù)情況下,利用神經(jīng)網(wǎng)絡(luò)解決問題是可能的。神經(jīng)網(wǎng)絡(luò)的函數(shù)用來接收輸入模式,然后輸出適合這一級別的模式。

這方面的例子由產(chǎn)生和訓(xùn)練一個感知機對屬于3個不同等級的點進(jìn)行正確的分級。神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù)被定義如下:

X矩陣的每一行代表一個采樣點,采樣點的等級用矩陣C的相應(yīng)元素值來描述。因為想要對3個不同的等級進(jìn)行區(qū)分,所以需要3個感知機,每一個等級有1個。相應(yīng)的目標(biāo)函數(shù)描述如下:

2.3 訓(xùn)練與泛化

神經(jīng)網(wǎng)絡(luò)是模式分級的,但并不是所有的模式分級都指的是神經(jīng)網(wǎng)絡(luò)。下面將講述神將神經(jīng)網(wǎng)絡(luò)與其他分級的一些區(qū)別。它們的主要區(qū)別在2個屬性上:學(xué)習(xí)與泛化。

在使用電子存儲器解決數(shù)字分級器時,管理存儲器,特別是完成輸入的合并方面,花費很大精力。要求能夠通過給它較少數(shù)目的簡單且具有正確響應(yīng)的例子來解決問題,這就指的是學(xué)習(xí)或稱為訓(xùn)練:系統(tǒng)學(xué)習(xí)識別默寫特定的模式,然后給出正確的輸出響應(yīng)。

某種程度上,這一部分已經(jīng)被如今的電子存儲器實現(xiàn)了。首先初始化設(shè)置存儲器的所有值為0,然后,調(diào)用范例對存儲器的值進(jìn)行訓(xùn)練,將結(jié)果存入存儲器的相應(yīng)位置。在相應(yīng)的位置用1替換原來的0。1顯示了相應(yīng)的輸入模式等級。訓(xùn)練階段結(jié)束后,進(jìn)入實際操作。如果這些模式與訓(xùn)練階段的模式是一樣的,則輸出結(jié)果就是正確的。

理想的,器件應(yīng)該給出正確的響應(yīng),即使有些例子沒有明確的顯示。這部分被稱為泛化。系統(tǒng)能夠推斷出例子給的不同模式等級的屬性。神經(jīng)網(wǎng)絡(luò)能夠做這種事,如果他們被正確操作,他們將對那些在訓(xùn)練階段學(xué)習(xí)的模式非常相似的模式做出響應(yīng)。那么,對于數(shù)字分級器來說,這意味著神經(jīng)網(wǎng)絡(luò)被數(shù)據(jù)范例進(jìn)行訓(xùn)練,它就能正確地區(qū)分相似的數(shù)據(jù),而以前這些都是次要的。這里設(shè):

c++相關(guān)文章:c++教程




關(guān)鍵詞: Network Toolbox Matlab Neural

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉