RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

半監(jiān)督學(xué)習(xí)最基礎(chǔ)的3個(gè)概念

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:Neeraj varshney ? 2020-11-02 16:14 ? 次閱讀

導(dǎo)讀

今天給大家介紹半監(jiān)督學(xué)習(xí)中的3個(gè)最基礎(chǔ)的概念:一致性正則化,熵最小化和偽標(biāo)簽,并介紹了兩個(gè)經(jīng)典的半監(jiān)督學(xué)習(xí)方法。

沒(méi)看一的點(diǎn)這里哈:半監(jiān)督學(xué)習(xí)入門(mén)基礎(chǔ)(一)

半監(jiān)督學(xué)習(xí) (SSL) 是一種非常有趣的方法,用來(lái)解決機(jī)器學(xué)習(xí)中缺少標(biāo)簽數(shù)據(jù)的問(wèn)題。SSL利用未標(biāo)記的數(shù)據(jù)和標(biāo)記的數(shù)據(jù)集來(lái)學(xué)習(xí)任務(wù)。SSL的目標(biāo)是得到比單獨(dú)使用標(biāo)記數(shù)據(jù)訓(xùn)練的監(jiān)督學(xué)習(xí)模型更好的結(jié)果。這是關(guān)于半監(jiān)督學(xué)習(xí)的系列文章的第2部分,詳細(xì)介紹了一些基本的SSL技術(shù)。

一致性正則化,熵最小化,偽標(biāo)簽

SSL的流行方法是在訓(xùn)練期間往典型的監(jiān)督學(xué)習(xí)中添加一個(gè)新的損失項(xiàng)。通常使用三個(gè)概念來(lái)實(shí)現(xiàn)半監(jiān)督學(xué)習(xí),即一致性正則化、熵最小化和偽標(biāo)簽。在進(jìn)一步討論之前,讓我們先理解這些概念。

一致性正則化強(qiáng)制數(shù)據(jù)點(diǎn)的實(shí)際擾動(dòng)不應(yīng)顯著改變預(yù)測(cè)器的輸出。簡(jiǎn)單地說(shuō),模型應(yīng)該為輸入及其實(shí)際擾動(dòng)變量給出一致的輸出。我們?nèi)祟?lèi)對(duì)于小的干擾是相當(dāng)魯棒的。例如,給圖像添加小的噪聲(例如改變一些像素值)對(duì)我們來(lái)說(shuō)是察覺(jué)不到的。機(jī)器學(xué)習(xí)模型也應(yīng)該對(duì)這種擾動(dòng)具有魯棒性。這通常通過(guò)最小化對(duì)原始輸入的預(yù)測(cè)與對(duì)該輸入的擾動(dòng)版本的預(yù)測(cè)之間的差異來(lái)實(shí)現(xiàn)。

模型對(duì)輸入x及其擾動(dòng)x^的一致性度量

d(.,.) 可以是均方誤差或KL散度或任何其他距離度量。

一致性正則化是利用未標(biāo)記數(shù)據(jù)找到數(shù)據(jù)集所在的平滑流形的一種方法。這種方法的例子包括π模型、Temporal Ensembling,Mean Teacher,Virtual Adversarial Training等。

熵最小化鼓勵(lì)對(duì)未標(biāo)記數(shù)據(jù)進(jìn)行更有信心的預(yù)測(cè),即預(yù)測(cè)應(yīng)該具有低熵,而與ground truth無(wú)關(guān)(因?yàn)間round truth對(duì)于未標(biāo)記數(shù)據(jù)是未知的)。讓我們從數(shù)學(xué)上理解下這個(gè)。

熵的計(jì)算

這里,K是類(lèi)別的數(shù)量,是模型對(duì)x預(yù)測(cè)是否屬于類(lèi)別k的置信度。

此外,輸入示例中所有類(lèi)的置信度之和應(yīng)該為1。這意味著,當(dāng)某個(gè)類(lèi)的預(yù)測(cè)值接近1,而其他所有類(lèi)的預(yù)測(cè)值接近0時(shí),熵將最小化。因此,這個(gè)目標(biāo)鼓勵(lì)模型給出高可信度的預(yù)測(cè)。

理想情況下,熵的最小化將阻止決策邊界通過(guò)附近的數(shù)據(jù)點(diǎn),否則它將被迫產(chǎn)生一個(gè)低可信的預(yù)測(cè)。請(qǐng)參閱下圖以更好地理解此概念。

由不同的半監(jiān)督學(xué)習(xí)方法生成的決策邊界

偽標(biāo)簽是實(shí)現(xiàn)半監(jiān)督學(xué)習(xí)最簡(jiǎn)單的方法。一個(gè)模型一開(kāi)始在有標(biāo)記的數(shù)據(jù)集上進(jìn)行訓(xùn)練,然后用來(lái)對(duì)沒(méi)有標(biāo)記的數(shù)據(jù)進(jìn)行預(yù)測(cè)。它從未標(biāo)記的數(shù)據(jù)集中選擇那些具有高置信度(高于預(yù)定義的閾值)的樣本,并將其預(yù)測(cè)視為偽標(biāo)簽。然后將這個(gè)偽標(biāo)簽數(shù)據(jù)集添加到標(biāo)記數(shù)據(jù)集,然后在擴(kuò)展的標(biāo)記數(shù)據(jù)集上再次訓(xùn)練模型。這些步驟可以執(zhí)行多次。這和自訓(xùn)練很相關(guān)。

在現(xiàn)實(shí)中視覺(jué)和語(yǔ)言上擾動(dòng)的例子

視覺(jué):

翻轉(zhuǎn),旋轉(zhuǎn),裁剪,鏡像等是圖像常用的擾動(dòng)。

語(yǔ)言

反向翻譯是語(yǔ)言中最常見(jiàn)的擾動(dòng)方式。在這里,輸入被翻譯成不同的語(yǔ)言,然后再翻譯成相同的語(yǔ)言。這樣就獲得了具有相同語(yǔ)義屬性的新輸入。

NLP中的反向翻譯

半監(jiān)督學(xué)習(xí)方法

π model:

這里的目標(biāo)是一致性正則化。

π模型鼓勵(lì)模型對(duì)兩個(gè)相同的輸入(即同一個(gè)輸入的兩個(gè)擾動(dòng)變量)輸出之間的一致性。

π模型有幾個(gè)缺點(diǎn),首先,訓(xùn)練計(jì)算量大,因?yàn)槊總€(gè)epoch中單個(gè)輸入需要送到網(wǎng)絡(luò)中兩次。第二,訓(xùn)練目標(biāo)zi?是有噪聲的。

Temporal Ensembling:

這個(gè)方法的目標(biāo)也是一致性正則化,但是實(shí)現(xiàn)方法有點(diǎn)不一樣。

眾所周知,與單一模型相比,模型集成通常能提供更好的預(yù)測(cè)。通過(guò)在訓(xùn)練期間使用單個(gè)模型在不同訓(xùn)練時(shí)期的輸出來(lái)形成集成預(yù)測(cè),這一思想得到了擴(kuò)展。

簡(jiǎn)單來(lái)說(shuō),不是比較模型的相同輸入的兩個(gè)擾動(dòng)的預(yù)測(cè)(如π模型),模型的預(yù)測(cè)與之前的epoch中模型對(duì)該輸入的預(yù)測(cè)的加權(quán)平均進(jìn)行比較。

這種方法克服了π模型的兩個(gè)缺點(diǎn)。它在每個(gè)epoch中,單個(gè)輸入只進(jìn)入一次,而且訓(xùn)練目標(biāo)zi? 的噪聲更小,因?yàn)闀?huì)進(jìn)行滑動(dòng)平均。

這種方法的缺點(diǎn)是需要存儲(chǔ)數(shù)據(jù)集中所有的zi? 。

英文原文:https://medium.com/analytics-vidhya/a-primer-on-semi-supervised-learning-part-2-803f45edac2

責(zé)任編輯:xj

原文標(biāo)題:半監(jiān)督學(xué)習(xí)入門(mén)基礎(chǔ)(二):最基礎(chǔ)的3個(gè)概念

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • SSL
    SSL
    +關(guān)注

    關(guān)注

    0

    文章

    125

    瀏覽量

    25737
  • 半監(jiān)督
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    6325
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8406

    瀏覽量

    132558
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5500

    瀏覽量

    121111

原文標(biāo)題:半監(jiān)督學(xué)習(xí)入門(mén)基礎(chǔ)(二):最基礎(chǔ)的3個(gè)概念

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語(yǔ)言處理的基本概念及步驟

    Learning,簡(jiǎn)稱(chēng)ML)是人工智能的一個(gè)核心領(lǐng)域,它使計(jì)算機(jī)能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測(cè)或決策。自然語(yǔ)言處理與機(jī)器學(xué)習(xí)之間有著密切的關(guān)系,因?yàn)闄C(jī)器學(xué)習(xí)提供了一種強(qiáng)大的工具,用于從大
    的頭像 發(fā)表于 12-05 15:21 ?450次閱讀

    時(shí)空引導(dǎo)下的時(shí)間序列自監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】最近,香港科技大學(xué)、上海AI Lab等多個(gè)組織聯(lián)合發(fā)布了一篇時(shí)間序列無(wú)監(jiān)督預(yù)訓(xùn)練的文章,相比原來(lái)的TS2Vec等時(shí)間序列表示學(xué)習(xí)工作,核心在于提出了將空間信息融入到預(yù)訓(xùn)練階段,即在預(yù)訓(xùn)練階段
    的頭像 發(fā)表于 11-15 11:41 ?240次閱讀
    時(shí)空引導(dǎo)下的時(shí)間序列自<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>框架

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語(yǔ)法結(jié)構(gòu)的學(xué)習(xí),還包括對(duì)語(yǔ)言的深層次理解,如文化背景、語(yǔ)境含義和情感色彩等。 自監(jiān)督學(xué)習(xí):模型采用自監(jiān)督學(xué)習(xí)策略,在大量無(wú)標(biāo)簽文本數(shù)據(jù)上學(xué)習(xí)
    發(fā)表于 08-02 11:03

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    章節(jié)最后總結(jié)了機(jī)器學(xué)習(xí)的分類(lèi):有監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)、監(jiān)督學(xué)習(xí)、自監(jiān)督學(xué)習(xí)和強(qiáng)化
    發(fā)表于 07-25 14:33

    三位和四位萬(wàn)用表的區(qū)別

    三位和四位萬(wàn)用表是電子測(cè)量領(lǐng)域中常用的兩種數(shù)字萬(wàn)用表,它們?cè)跍y(cè)量精度、顯示方式、應(yīng)用范圍等方面存在一定的差異。本文將從多個(gè)方面詳細(xì)分析這兩種萬(wàn)用表的區(qū)別。 一、基本概念 三位萬(wàn)用
    的頭像 發(fā)表于 07-14 14:23 ?5579次閱讀

    神經(jīng)網(wǎng)絡(luò)如何用無(wú)監(jiān)督算法訓(xùn)練

    神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要組成部分,其訓(xùn)練方式多樣,其中無(wú)監(jiān)督學(xué)習(xí)是一種重要的訓(xùn)練策略。無(wú)監(jiān)督學(xué)習(xí)旨在從未標(biāo)記的數(shù)據(jù)中發(fā)現(xiàn)數(shù)據(jù)內(nèi)在的結(jié)構(gòu)、模式或規(guī)律,從而提取有用的特征表示。這種訓(xùn)練方式對(duì)于大規(guī)模未
    的頭像 發(fā)表于 07-09 18:06 ?775次閱讀

    深度學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,無(wú)監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來(lái)越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)方法,包括自編碼器、生成對(duì)抗網(wǎng)絡(luò)、聚類(lèi)算法等,并分析它們的原理、應(yīng)用場(chǎng)景以及優(yōu)
    的頭像 發(fā)表于 07-09 10:50 ?674次閱讀

    遷移學(xué)習(xí)的基本概念和實(shí)現(xiàn)方法

    遷移學(xué)習(xí)(Transfer Learning)是機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)重要概念,其核心思想是利用在一個(gè)任務(wù)或領(lǐng)域中學(xué)到的知識(shí)來(lái)加速或改進(jìn)另一
    的頭像 發(fā)表于 07-04 17:30 ?1618次閱讀

    基于FPGA的類(lèi)腦計(jì)算平臺(tái) —PYNQ 集群的無(wú)監(jiān)督圖像識(shí)別類(lèi)腦計(jì)算系統(tǒng)

    STDP 無(wú)監(jiān)督學(xué)習(xí)算法,可運(yùn)用于圖像的 無(wú)監(jiān)督分類(lèi)。 從平臺(tái)設(shè)計(jì)角度: (1)本設(shè)計(jì)搭建的基于 PYNQ 集群的通用低功耗的大規(guī)模類(lèi)腦計(jì)算平臺(tái),搭載 PYNN,NEST 等通用 SNN
    發(fā)表于 06-25 18:35

    無(wú)監(jiān)督深度學(xué)習(xí)實(shí)現(xiàn)單次非相干全息3D成像

    論文信息 背景引入 數(shù)字全息術(shù)因其能夠從單一視點(diǎn)對(duì)3D場(chǎng)景進(jìn)行成像而備受關(guān)注。與直接成像相比,數(shù)字全息是一種間接的多步驟成像過(guò)程,包括光學(xué)記錄全息圖和數(shù)值計(jì)算重建,為包括深度學(xué)習(xí)在內(nèi)的計(jì)算成像方法
    的頭像 發(fā)表于 05-13 17:38 ?427次閱讀
    無(wú)<b class='flag-5'>監(jiān)督</b>深度<b class='flag-5'>學(xué)習(xí)</b>實(shí)現(xiàn)單次非相干全息<b class='flag-5'>3</b>D成像

    CVPR&apos;24 Highlight!跟蹤3D空間中的一切!

    為了使用三維運(yùn)動(dòng)先驗(yàn)正則化估計(jì)的三維軌跡,模型另外預(yù)測(cè)了每條軌跡的剛性嵌入,這使能夠軟地分組表現(xiàn)出相同剛性體運(yùn)動(dòng)的像素,并為每個(gè)剛性集群強(qiáng)制執(zhí)行ARAP正則化。作者證明了剛性嵌入可以通過(guò)自監(jiān)督學(xué)習(xí),并產(chǎn)生不同剛性部分的合理分割。
    的頭像 發(fā)表于 04-13 12:12 ?1231次閱讀
    CVPR&apos;24 Highlight!跟蹤<b class='flag-5'>3</b>D空間中的一切!

    機(jī)器學(xué)習(xí)基礎(chǔ)知識(shí)全攻略

    監(jiān)督學(xué)習(xí)通常是利用帶有專(zhuān)家標(biāo)注的標(biāo)簽的訓(xùn)練數(shù)據(jù),學(xué)習(xí)個(gè)從輸入變量X到輸入變量Y的函數(shù)映射。Y = f (X),訓(xùn)練數(shù)據(jù)通常是(n×x,y)的形式,其中n代表訓(xùn)練樣本的大小,x和y分別是變量X和Y的樣本值。
    發(fā)表于 02-25 13:53 ?240次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>基礎(chǔ)知識(shí)全攻略

    OpenAI推出Sora:AI領(lǐng)域的革命性突破

    大模型的核心技術(shù)是自然語(yǔ)言處理(NLP)和深度學(xué)習(xí)。具體而言,它基于Transformer架構(gòu),使用了大規(guī)模無(wú)監(jiān)督學(xué)習(xí)方法,例如自回歸語(yǔ)言建模和掩碼語(yǔ)言建模,來(lái)訓(xùn)練一個(gè)龐大的神經(jīng)網(wǎng)絡(luò)模型。
    發(fā)表于 02-21 16:36 ?1009次閱讀
    OpenAI推出Sora:AI領(lǐng)域的革命性突破

    2024年AI領(lǐng)域?qū)?huì)有哪些新突破呢?

    傳統(tǒng)的機(jī)器學(xué)習(xí)需要大量的標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,但自監(jiān)督學(xué)習(xí)可以通過(guò)無(wú)監(jiān)督的方式從大規(guī)模未標(biāo)記的數(shù)據(jù)中學(xué)習(xí)到更有用的表示形式,從而提高模型的性能。
    的頭像 發(fā)表于 01-24 09:58 ?2006次閱讀

    谷歌MIT最新研究證明:高質(zhì)量數(shù)據(jù)獲取不難,大模型就是歸途

    另一個(gè)極端是,監(jiān)督學(xué)習(xí)方法(即SupCE)會(huì)將所有這些圖像視為單一類(lèi)(如「金毛獵犬」)。這就忽略了這些圖像在語(yǔ)義上的細(xì)微差別,例如在一對(duì)圖像中狗在騎自行車(chē),而在另一對(duì)圖像中狗坐在壽司屋內(nèi)。
    的頭像 發(fā)表于 01-15 15:40 ?537次閱讀
    谷歌MIT最新研究證明:高質(zhì)量數(shù)據(jù)獲取不難,大模型就是歸途
    RM新时代网站-首页