RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Dropout如何成為SDR的特殊情況

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-08-15 08:32 ? 次閱讀

編者按:多層神經(jīng)網(wǎng)絡(luò)在多種基準(zhǔn)任務(wù)上都有了顯著成果,例如文本、語音和圖像處理。盡管如此,這些深層神經(jīng)網(wǎng)絡(luò)會(huì)導(dǎo)致高維非線性的參數(shù)空間,讓搜索難以進(jìn)行,并且還會(huì)導(dǎo)致過度擬合和較差的泛化。早期由于數(shù)據(jù)不足、無法恢復(fù)梯度損失以及不良局部最小值而引起的高捕捉概率,讓使用反向傳播的神經(jīng)網(wǎng)絡(luò)很容易失敗。

2006年,Hinton的深度學(xué)習(xí)提出了一些創(chuàng)新的方法以減少這些過度擬合和過度參數(shù)化的問題,包括減少連續(xù)梯度損失的ReLU和Dropout等。在這篇文章中,美國羅格斯大學(xué)的兩位研究者將關(guān)注深層網(wǎng)絡(luò)的過度參數(shù)化問題,盡管現(xiàn)在各項(xiàng)分類任務(wù)都有大量可用的數(shù)據(jù)。本文已提交到NIPS 2018,以下是論智對原文的大致編譯,如有錯(cuò)誤請批評指正。

Dropout是用來減輕過度參數(shù)化、深度學(xué)習(xí)的過擬合以及避免偶然出現(xiàn)的不良局部最小值。具體說來,Dropout在每次更新時(shí)會(huì)添加一個(gè)帶有概率p的Bernoulli隨機(jī)變量、刪除隱藏的單元以及網(wǎng)絡(luò)中的連接,從而創(chuàng)造一個(gè)稀疏的網(wǎng)絡(luò)架構(gòu)。學(xué)習(xí)結(jié)束后,深度學(xué)習(xí)網(wǎng)絡(luò)會(huì)通過計(jì)算每個(gè)權(quán)重的期望值進(jìn)行重組。大多數(shù)案例證明,深度學(xué)習(xí)的Dropout能將常見基準(zhǔn)的錯(cuò)誤減少50%以上。

在這篇論文中,我們將介紹一種通用的Dropout類型,它可以在權(quán)重層面操作,在每次更新中插入梯度相關(guān)的噪音,稱為隨機(jī)Delta規(guī)則(SDR)。SDR是在每個(gè)權(quán)重上執(zhí)行一個(gè)隨機(jī)變量,并對隨機(jī)變量中的每個(gè)參數(shù)提供更新之后的規(guī)則。雖然SDR在任意隨機(jī)變量下都能工作,但是我們將展示,Dropout在擁有二項(xiàng)式隨機(jī)變量中的固定參數(shù)下是非常特別的。最終我們在含有高斯SDR的標(biāo)準(zhǔn)基準(zhǔn)下測試DenseNet,結(jié)果證明二項(xiàng)式Dropout有著非常大的優(yōu)勢。

隨機(jī)delta規(guī)則(SDR)

眾所周知,神經(jīng)傳輸會(huì)包含噪聲。如果皮質(zhì)分離的神經(jīng)元受到周期性、相同的刺激,將會(huì)產(chǎn)生不同的反應(yīng)。SDR的部分motivation是基于生命系統(tǒng)中信號在神經(jīng)元之間傳播的隨機(jī)性。顯然,平滑的神經(jīng)速率函數(shù)是基于很多刺激實(shí)驗(yàn)得來的平均值,這使得我們認(rèn)為兩個(gè)神經(jīng)元之間的突觸可以用一個(gè)具有固定參數(shù)的分布建模。

圖1顯示了我們用一個(gè)高斯隨機(jī)變量和平均μwij以及σwij實(shí)施的SDR算法。每個(gè)權(quán)重都會(huì)從高斯隨機(jī)變量中進(jìn)行采樣。實(shí)際上,和Dropout一樣,很多網(wǎng)絡(luò)都是在訓(xùn)練時(shí)的更新中進(jìn)行采樣。這里和Dropout的不同之處在于,SDR在更新時(shí),會(huì)根據(jù)錯(cuò)誤的梯度調(diào)整權(quán)重和隱藏單元。

圖1

因此,每個(gè)權(quán)重梯度就是基于隱藏單元的隨機(jī)變量,基于此,系統(tǒng)可以:

給定相同的樣本/獎(jiǎng)勵(lì),生成多個(gè)回復(fù)假設(shè)

保持歷史預(yù)測,而不像Dropout一樣只有局部的隱藏單元權(quán)重

有可能會(huì)返回到不良局部最小值而造成貪婪搜索,但同時(shí)越來越遠(yuǎn)離更好的局部最小值

最后一個(gè)優(yōu)點(diǎn)是,如Hinton所說,局部噪聲的插入可能會(huì)導(dǎo)致收斂到更好的局部最小值的速度更快、更穩(wěn)定。

實(shí)施SDR有三個(gè)更新規(guī)則,以下是權(quán)重分布中的權(quán)重值的更新規(guī)則:

第一個(gè)更新規(guī)則用于計(jì)算權(quán)重分布的平均數(shù):

第二個(gè)用于權(quán)重分布的標(biāo)準(zhǔn)偏差:

第三種是將標(biāo)準(zhǔn)偏差收斂到0,讓平均權(quán)重值達(dá)到一個(gè)固定點(diǎn),將所有樣本都聚集起來:

接下來,我們將講述Dropout如何成為SDR的特殊情況。最明顯的方法是首先將隨機(jī)搜索看作一種特殊的采樣分布。

將Dropout看作SDR的二項(xiàng)式固定參數(shù)

如之前所說,Dropout需要將每層的隱藏單元在Bernoulli過程中刪除。如果我們在同樣的網(wǎng)絡(luò)中,將Dropout和SDR進(jìn)行對比,可以發(fā)現(xiàn)二者的不同在于隨機(jī)處理是否影響了權(quán)重或隱藏單元。圖2我們描述了Dropout在隱藏單元采樣時(shí)的收斂??梢钥吹矫黠@的不同是,SDR在適應(yīng)性地更新隨機(jī)變量參數(shù),而Dropout是用固定參數(shù)進(jìn)和Binomial隨機(jī)變量進(jìn)行采樣。另一個(gè)重要區(qū)別在于,SDR在隱藏層中的共享權(quán)重比Dropout的更“局部”。

圖2

那么,SDR所表現(xiàn)出的參數(shù)的增加,是否使得搜索更加有效、更加穩(wěn)定?下一步我們將開展實(shí)驗(yàn)。

測試及結(jié)果

這里我們采用了在TensorFlow上搭建的經(jīng)過改進(jìn)的DenseNet。模型用DenseNet-40、DenseNet-100和DenseNet-BC 100網(wǎng)絡(luò),它們經(jīng)過了CIFAR-10和CIFAR-100的訓(xùn)練,初始DenseNet參數(shù)相同。

最終的結(jié)果顯示,將SDR換成Dropout后的DenseNet測試中,錯(cuò)誤率下降了50%以上。

同時(shí)在錯(cuò)誤率分別為15、10和5的情況下,訓(xùn)練所需次數(shù)也比單獨(dú)DenseNet減少:

訓(xùn)練精確度(DenseNet-100橙色,有SDR的DenseNet-100,藍(lán)色)

結(jié)語

這篇文章展示了一個(gè)基礎(chǔ)的深度學(xué)習(xí)算法(Dropout)是如何實(shí)施隨機(jī)搜索并幫助解決過度擬合的。未來我們將展示SDR是如何超越Dropout在深度學(xué)習(xí)分類中的表現(xiàn)的。

數(shù)據(jù)科學(xué)家、fast.ai創(chuàng)始人Jeremy Howard點(diǎn)評:“如果該論文結(jié)果真的這么好,那絕對值得關(guān)注?!?/p>

但是谷歌機(jī)器學(xué)習(xí)專家David Ha有不同意見:“結(jié)果看上去很可疑(我覺得他們搞錯(cuò)了)。CIFAR-10的準(zhǔn)確率能到98.64%,CIFAR-100真的能到94.84%嗎?”

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)元
    +關(guān)注

    關(guān)注

    1

    文章

    363

    瀏覽量

    18449
  • Dropout
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    10051
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5500

    瀏覽量

    121111

原文標(biāo)題:爭議 | 錯(cuò)誤減少50%!這難道是更快更準(zhǔn)確的深度學(xué)習(xí)?

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    SDR_SDR是什么意思

    本內(nèi)容介紹了SDR,SDR是什么意思?SDR (Software Definition Radio), “軟件定義的無線電”  一種無線電廣播通信技術(shù),它基于軟件定義的無線通信協(xié)議而非通過硬連線實(shí)現(xiàn)。
    發(fā)表于 12-07 17:40 ?1w次閱讀

    IN612 SDR API介紹

    SDR
    橙群微電子
    發(fā)布于 :2023年03月03日 09:07:19

    73.73 對象分配的特殊情況

    代碼項(xiàng)目開發(fā)
    充八萬
    發(fā)布于 :2023年07月18日 06:19:49

    SDR軟件

    哪位有SDR的軟件給個(gè)學(xué)習(xí)學(xué)習(xí)。
    發(fā)表于 05-19 19:17

    介紹SDR的技術(shù)原理 以SDR LTE系統(tǒng)為例進(jìn)一步解析SDR系統(tǒng)的工作流程

    本文檔通俗地介紹SDR的技術(shù)原理:先簡單介紹SDR的概念,SDR系統(tǒng)的分類,基于GPP的SDR系統(tǒng),接著詳細(xì)介紹SDR系統(tǒng)原理,最后再以
    發(fā)表于 05-11 16:47

    CCFD SDR平臺有哪些應(yīng)用

    CCFD SDR平臺有哪些應(yīng)用?CCFD SDR平臺主要由哪些部分組成?CCFD SDR平臺有何功能?
    發(fā)表于 10-08 06:30

    ref sdr sdram verilog代碼

    ref-sdr-sdram-verilog代碼 SDR SDRAM Controller v1.1 readme.txt This readme file for the SDR SDRAM
    發(fā)表于 06-14 08:50 ?33次下載

    SDR SDRAM Controller (White Pa

    SDR SDRAM Controller August 2002, ver. 1.1 1M-WP-SDR-1.1 IntroductionThe single data rate (SDR
    發(fā)表于 06-14 08:51 ?95次下載

    ref sdr sdram vhdl代碼

    ref-sdr-sdram-vhdl代碼 SDR SDRAM Controller v1.1 readme.txt This readme file for the SDR SDRAM
    發(fā)表于 06-14 08:52 ?46次下載

    dropout正則化技術(shù)介紹

    dropout技術(shù)是神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)模型的一種簡單而有效的正則化方式。 本文將向你介紹dropout正則化技術(shù),并且教你如何在Keras中用Python將其應(yīng)用于你的模型。 讀完本文之后,你將了
    發(fā)表于 10-10 10:38 ?2次下載

    SDR的技術(shù)原理介紹及案例分析

    本文檔通俗地介紹SDR的技術(shù)原理:先簡單介紹SDR的概念,SDR系統(tǒng)的分類,基于GPP的SDR系統(tǒng),接著詳細(xì)介紹SDR系統(tǒng)原理,最后再以
    發(fā)表于 11-21 18:43 ?3.7w次閱讀
    <b class='flag-5'>SDR</b>的技術(shù)原理介紹及案例分析

    基于動(dòng)態(tài)dropout的改進(jìn)堆疊自動(dòng)編碼機(jī)方法

    針對堆疊自動(dòng)編碼機(jī)( SA)容易產(chǎn)生過擬合而降低垃圾郵件分類精度的問題,提出了一種基于動(dòng)態(tài)dropout的改進(jìn)堆疊自動(dòng)編碼機(jī)方法。首先分析了垃圾郵件分類問題的特殊性,將dropout算法引入到堆疊
    發(fā)表于 12-26 14:37 ?0次下載
    基于動(dòng)態(tài)<b class='flag-5'>dropout</b>的改進(jìn)堆疊自動(dòng)編碼機(jī)方法

    執(zhí)行節(jié)點(diǎn)分析時(shí)的特殊情況介紹

    當(dāng)我們在設(shè)計(jì)電子電路時(shí),了解流過元件的電流量或電路中特定節(jié)點(diǎn)在其工作的關(guān)鍵點(diǎn)存在多少電壓始終是很重要的。使用基爾霍夫電路定律可以完成任一測量。允許我們找到這些值的兩種分析類型是網(wǎng)格分析和節(jié)點(diǎn)分析。如果我們試圖在一個(gè)點(diǎn)(節(jié)點(diǎn))找到電壓,那么我們可以使用基爾霍夫電流定律(KCL)進(jìn)行節(jié)點(diǎn)分析。
    的頭像 發(fā)表于 09-01 09:23 ?4017次閱讀
    執(zhí)行節(jié)點(diǎn)分析時(shí)的<b class='flag-5'>特殊情況</b>介紹

    特殊情況下,封裝壓電陶瓷可倒置使用

    在通常情況下,封裝式壓電陶瓷默認(rèn)為正立使用,即移動(dòng)端在上方,帶載后進(jìn)行垂直方向的升降運(yùn)動(dòng)控制調(diào)節(jié)。但在特殊情況下,封裝壓電陶瓷也可以橫向或倒置使用,但在這兩種情況下,必須提前告知,在生產(chǎn)時(shí)我們會(huì)進(jìn)行
    發(fā)表于 09-10 14:48 ?767次閱讀

    SINUMERIK 808D診斷手冊免費(fèi)下載

    本手冊主要幫助目標(biāo)使用人群來識別錯(cuò)誤和故障,并做相應(yīng)的響應(yīng)措施。 使用它操作者可以對機(jī)床進(jìn)行: ? 在操作機(jī)床時(shí),正確地識別特殊情況。 ? 在特殊情況下,確定系統(tǒng)的反應(yīng)。 ? 發(fā)生特殊情況后,采用各種可能措施以便繼續(xù)操作
    發(fā)表于 06-06 09:51 ?3次下載
    RM新时代网站-首页