RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

對偶傳播神經(jīng)網(wǎng)絡(luò)的詳細(xì)資料說明

Dbwd_Imgtec ? 來源:未知 ? 2019-07-20 10:27 ? 次閱讀

1987年,美國學(xué)者Robert Hecht-Nielsen提出了對偶傳播神經(jīng)網(wǎng)絡(luò)模型 (Counter Propagation Network,CPN),CPN最早是用來實現(xiàn)樣本選擇匹配系統(tǒng)的。CPN 網(wǎng)能存儲二進(jìn)制或模擬值的模式對,因此這種網(wǎng)絡(luò)模型也可用于聯(lián)想存儲、模式分類、函數(shù)逼近、統(tǒng)計分析和數(shù)據(jù)壓縮等用途。

1. 網(wǎng)絡(luò)結(jié)構(gòu)與運行原理

網(wǎng)絡(luò)結(jié)構(gòu)如圖所示,各層之間的神經(jīng)元全互聯(lián)連接。從拓?fù)浣Y(jié)構(gòu)看,CPN網(wǎng)與三層BP網(wǎng)絡(luò)相近,但實際上CPN是由自組織網(wǎng)和Grossberg外星網(wǎng)組合而成。隱層為競爭層,采用無導(dǎo)師的競爭學(xué)習(xí)規(guī)則,而輸出層為Grossberg層,采用有導(dǎo)師信號的Widrow-Hoff規(guī)則或Grossberg規(guī)則學(xué)習(xí)。

網(wǎng)絡(luò)各層按兩種學(xué)習(xí)規(guī)則訓(xùn)練好之后,運行階段首先向網(wǎng)絡(luò)送入輸入變量,隱含層對這些輸入進(jìn)行競爭計算,獲勝者成為當(dāng)前輸入模式類的代表,同時該神經(jīng)元成為如下圖(a)所示的活躍神經(jīng)元,輸出值為1而其余神經(jīng)元處于非活躍狀態(tài),輸出值為0。競爭取勝的隱含神經(jīng)元激勵輸出層神經(jīng)元,使其產(chǎn)生如下圖(b)所示的輸出模式。由于競爭失敗的神經(jīng)元輸出為0,不參與輸出層的整合。因此輸出就由競爭勝利的神經(jīng)元的外星權(quán)重確定。

2. 學(xué)習(xí)算法

網(wǎng)絡(luò)學(xué)習(xí)分為兩個階段:

第一階段是競爭學(xué)習(xí)算法對隱含層神經(jīng)元的內(nèi)星權(quán)向量進(jìn)行訓(xùn)練;

第二階段是采用外星學(xué)習(xí)算法對隱含層的神經(jīng)元的外星權(quán)向量進(jìn)行訓(xùn)練。

因為內(nèi)星權(quán)向量采用的是競爭學(xué)習(xí)規(guī)則,跟前幾篇博文所介紹的算法步驟基本類似,這里不做介紹,值得說明的是競爭算法并不設(shè)置優(yōu)勝臨域,只對獲勝神經(jīng)元的內(nèi)星權(quán)向量進(jìn)行調(diào)節(jié)。

下面重點介紹一下外星權(quán)向量的訓(xùn)練步驟:

(1)輸入一個模式以及對應(yīng)的期望輸入,計算網(wǎng)絡(luò)隱節(jié)點凈輸入,隱節(jié)點的內(nèi)星權(quán)向量采用上一階段中訓(xùn)練結(jié)果。

(2)確定獲勝神經(jīng)元使其輸出為1。

(3)調(diào)整隱含層到輸出層的外星權(quán)向量,調(diào)整規(guī)則如下:

β為外星規(guī)則學(xué)習(xí)速率,為隨時間下降的退火函數(shù)。O(t)為輸出層神經(jīng)元的輸出值。

由以上規(guī)則可知,只有獲勝神經(jīng)元的外星權(quán)向量得到調(diào)整,調(diào)整的目的是使外星權(quán)向量不斷靠近并等于期望輸出,從而將該輸出編碼到外星權(quán)向量中。

3. 改進(jìn)CPN網(wǎng)

(1) 雙獲勝神經(jīng)元CPN

指的是在完成訓(xùn)練后的運行階段允許隱層有兩個神經(jīng)元同時競爭獲得勝利,這兩個獲勝神經(jīng)元均取值為1,其他神經(jīng)元則取值為0。于是有兩個獲勝神經(jīng)元同時影響網(wǎng)絡(luò)輸出。下圖給出了一個例子,表明了CPN網(wǎng)能對復(fù)合輸入模式包含的所有訓(xùn)練樣本對應(yīng)的輸出進(jìn)行線性疊加,這種能力對于圖像的疊加等應(yīng)用十分合適。

(2) 雙向CPN網(wǎng)

將CPN網(wǎng)的輸入層和輸出層各自分為兩組,如下圖所示。雙向CPN網(wǎng)的優(yōu)點是可以同時學(xué)習(xí)兩個函數(shù),例如:Y=f (X);X′=f (Y′)

當(dāng)兩個函數(shù)互逆時,有X =X′,Y =Y(jié)′。雙向CPN可用于數(shù)據(jù)壓縮與解壓縮,可將其中一個函數(shù)f作為壓縮函數(shù),將其逆函數(shù)g作為解壓縮函數(shù)。

事實上,雙向CPN網(wǎng)并不要求兩個互逆函數(shù)是解析表達(dá)的,更一般的情況是f和g是互逆的映射關(guān)系,從而可利用雙向CPN實現(xiàn)互聯(lián)想。

4.CPN網(wǎng)應(yīng)用

下圖給出了CPN網(wǎng)用于煙葉顏色模式分類的情況,輸入樣本分布在下圖(a)所示的三維顏色空間中,該空間的每個點用一個三維向量表示,各分量分別代表煙葉的平均色調(diào)H,平均亮度L和平均飽和度S??梢钥闯鲱伾J椒譃?類,分別對應(yīng)紅棕色,橘黃色,檸檬色和青黃色。下圖(b)給出了CPN網(wǎng)絡(luò)結(jié)構(gòu),隱層共設(shè)了10個神經(jīng)元,輸出層設(shè)4個神經(jīng)元,學(xué)習(xí)速率為隨訓(xùn)練時間下降的函數(shù),經(jīng)過2000次遞歸之后,網(wǎng)絡(luò)分類的正確率達(dá)到96%。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4771

    瀏覽量

    100712
  • 二進(jìn)制
    +關(guān)注

    關(guān)注

    2

    文章

    795

    瀏覽量

    41643
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3226

    瀏覽量

    48807

原文標(biāo)題:對偶傳播神經(jīng)網(wǎng)絡(luò)(CPN)

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡(luò)

    傳播的,不會回流),區(qū)別于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN。BP算法(Back Propagation):誤差反向傳播算法,用于更新網(wǎng)絡(luò)中的權(quán)重。BP神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 07-21 04:00

    神經(jīng)網(wǎng)絡(luò)和反向傳播算法

    03_深度學(xué)習(xí)入門_神經(jīng)網(wǎng)絡(luò)和反向傳播算法
    發(fā)表于 09-12 07:08

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測的計算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播
    發(fā)表于 07-12 08:02

    徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)詳細(xì)資料免費下載

    本文檔的主要內(nèi)容詳細(xì)介紹的是徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)詳細(xì)資料免費下載
    發(fā)表于 08-10 08:00 ?3次下載
    徑向基函數(shù)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>詳細(xì)資料</b>免費下載

    MATLAB和BP人工神經(jīng)網(wǎng)絡(luò)算法源代碼與演示程序詳細(xì)資料免費下載

    本文檔的主要內(nèi)容詳細(xì)介紹的是MATLAB和BP人工神經(jīng)網(wǎng)絡(luò)算法源代碼與演示程序詳細(xì)資料免費下載 解壓后,運行CMMATools.exe即可 用于演示BP人工神經(jīng)網(wǎng)絡(luò)算法。
    發(fā)表于 03-23 08:00 ?5次下載
    MATLAB和BP人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>算法源代碼與演示程序<b class='flag-5'>詳細(xì)資料</b>免費下載

    神經(jīng)網(wǎng)絡(luò)的應(yīng)用及發(fā)展的詳細(xì)資料說明

    該文介紹了神經(jīng)網(wǎng)絡(luò)的發(fā)展、優(yōu)點及其應(yīng)用現(xiàn)狀和發(fā)展動向,對神經(jīng)網(wǎng)絡(luò)的一些常用算法進(jìn)行簡單的講解, 著重論述了神經(jīng)網(wǎng)絡(luò)目前的幾個研究熱點, 即神經(jīng)網(wǎng)絡(luò)與遺傳算法、灰色系統(tǒng)、模糊控制、小波分
    發(fā)表于 01-22 16:35 ?2次下載

    神經(jīng)網(wǎng)絡(luò)的工具箱詳細(xì)資料說明

    本文檔的主要內(nèi)容詳細(xì)介紹的是神經(jīng)網(wǎng)絡(luò)的工具箱詳細(xì)資料說明。
    發(fā)表于 03-12 13:56 ?6次下載
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的工具箱<b class='flag-5'>詳細(xì)資料</b><b class='flag-5'>說明</b>

    BP(BackPropagation)反向傳播神經(jīng)網(wǎng)絡(luò)介紹及公式推導(dǎo)

    BP(BackPropagation)反向傳播神經(jīng)網(wǎng)絡(luò)介紹及公式推導(dǎo)(電源和地電氣安全間距)-該文檔為BP(BackPropagation)反向傳播神經(jīng)網(wǎng)絡(luò)介紹及公式推導(dǎo)詳述
    發(fā)表于 07-26 10:31 ?48次下載
    BP(BackPropagation)反向<b class='flag-5'>傳播</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>介紹及公式推導(dǎo)

    反向傳播神經(jīng)網(wǎng)絡(luò)建模的基本原理

    等方面取得了顯著的成果。本文將詳細(xì)介紹BP神經(jīng)網(wǎng)絡(luò)的基本原理,包括網(wǎng)絡(luò)結(jié)構(gòu)、激活函數(shù)、損失函數(shù)、梯度下降算法、反向傳播算法等。 神經(jīng)網(wǎng)絡(luò)概述
    的頭像 發(fā)表于 07-02 14:05 ?288次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)模型的特點

    反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡稱BP神經(jīng)網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法
    的頭像 發(fā)表于 07-02 14:14 ?393次閱讀

    神經(jīng)網(wǎng)絡(luò)反向傳播算法原理是什么

    神經(jīng)網(wǎng)絡(luò)反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練多層前饋神經(jīng)網(wǎng)絡(luò)的監(jiān)督學(xué)習(xí)算法。它通過最小化損失函數(shù)來調(diào)整網(wǎng)絡(luò)的權(quán)重和偏置,從而提高
    的頭像 發(fā)表于 07-02 14:16 ?617次閱讀

    神經(jīng)網(wǎng)絡(luò)前向傳播和反向傳播區(qū)別

    神經(jīng)網(wǎng)絡(luò)是一種強大的機器學(xué)習(xí)模型,廣泛應(yīng)用于各種領(lǐng)域,如圖像識別、語音識別、自然語言處理等。神經(jīng)網(wǎng)絡(luò)的核心是前向傳播和反向傳播算法。本文將詳細(xì)
    的頭像 發(fā)表于 07-02 14:18 ?791次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡稱BP神經(jīng)網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法
    的頭像 發(fā)表于 07-03 11:00 ?789次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)建?;驹?/a>

    。本文將詳細(xì)介紹反向傳播神經(jīng)網(wǎng)絡(luò)的基本原理,包括網(wǎng)絡(luò)結(jié)構(gòu)、激活函數(shù)、損失函數(shù)、梯度下降算法、反向傳播算法等。
    的頭像 發(fā)表于 07-03 11:08 ?444次閱讀

    神經(jīng)網(wǎng)絡(luò)前向傳播和反向傳播神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中的作用

    神經(jīng)網(wǎng)絡(luò)是一種強大的機器學(xué)習(xí)模型,它通過模擬人腦神經(jīng)元的連接方式來處理復(fù)雜的數(shù)據(jù)。神經(jīng)網(wǎng)絡(luò)的核心是前向傳播和反向傳播算法。本文將
    的頭像 發(fā)表于 07-03 11:11 ?1297次閱讀
    RM新时代网站-首页