RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)進(jìn)階之線性代數(shù)-奇異值分解(下)

jf_78858299 ? 來源:人工智能大講堂 ? 作者:人工智能大講堂 ? 2023-05-22 16:27 ? 次閱讀

協(xié)方差矩陣

方差衡量一個變量在自身之間的變化,而協(xié)方差衡量兩個變量(a和b)之間的變化。

圖片

我們可以將所有可能的協(xié)方差組合保存在一個稱為協(xié)方差矩陣Σ的矩陣中。

圖片

我們可以將這個簡單的矩陣形式重寫為:

圖片

對角線元素保存單個變量(如身高)的方差,而非對角線元素保存兩個變量之間的協(xié)方差?,F(xiàn)在讓我們計算樣本協(xié)方差。

圖片

圖片

正的樣本協(xié)方差表明身高和體重是正相關(guān)的。如果它們是負(fù)相關(guān)的,協(xié)方差將為負(fù)數(shù);如果它們是獨立的,則協(xié)方差為零。

圖片

協(xié)方差矩陣和SVD

我們可以使用SVD來分解樣本協(xié)方差矩陣。由于σ?相對于σ?而言相對較小,我們甚至可以忽略σ?項。當(dāng)我們訓(xùn)練一個機(jī)器學(xué)習(xí)模型時,我們可以對身高和體重進(jìn)行線性回歸,形成一個新屬性,而不是將它們視為兩個分離且相關(guān)的屬性(糾纏的數(shù)據(jù)通常使模型訓(xùn)練更加困難)。

圖片

u?有一個重要的意義,它是S的主要成分。

圖片

在SVD的背景下,樣本協(xié)方差矩陣具有一些特性:

  • 數(shù)據(jù)的總方差等于樣本協(xié)方差矩陣S的跡,這個值等于S的奇異值的平方和。有了這個,我們可以計算如果刪除較小的σ?項會損失多少方差。這反映了如果我們消除它們會丟失多少信息。

圖片

  • S的第一個特征向量u?指向數(shù)據(jù)的最重要方向。在我們的例子中,它量化了體重和身高之間的典型比率。

圖片

  • 當(dāng)使用SVD時,從樣本點到u?的垂直平方距離的誤差最小。

性質(zhì)

協(xié)方差矩陣不僅對稱,而且還是正半定的。因為方差是正數(shù)或者零,所以u?Vu始終大于或等于零。通過能量測試,V是正半定的。

圖片

因此,

圖片

通常,在進(jìn)行某些線性變換A之后,我們想知道轉(zhuǎn)換后數(shù)據(jù)的協(xié)方差。這可以用變換矩陣A和原始數(shù)據(jù)的協(xié)方差來計算。

圖片

相關(guān)矩陣

相關(guān)矩陣是協(xié)方差矩陣的標(biāo)準(zhǔn)化版本。相關(guān)矩陣對變量進(jìn)行標(biāo)準(zhǔn)化(縮放),使它們的標(biāo)準(zhǔn)差為1。

圖片

如果變量的量級相差很大,那么將使用相關(guān)矩陣。糟糕的縮放可能會損害梯度下降等機(jī)器學(xué)習(xí)算法的效果。

可視化

到目前為止,我們有很多方程式。讓我們將SVD的作用可視化,并逐漸開發(fā)我們的洞察力。SVD將矩陣A分解為USV?。將向量x(Ax)應(yīng)用于A可以被視為對x執(zhí)行旋轉(zhuǎn)(V?),縮放(S)和另一個旋轉(zhuǎn)(U)。

圖片

如上所示,矩陣 V 的特征向量 v? 被轉(zhuǎn)換為:

圖片

或者以完整矩陣形式表示

圖片

r = m < n

奇異值分解(SVD)的洞察

如前所述,SVD 可以表示為

圖片

由于 u? 和 v? 的長度為單位長度,確定每個項的重要性的最主要因素是奇異值 σ?。我們故意按降序?qū)?σ? 進(jìn)行排序。如果特征值變得太小,我們可以忽略剩下的項(+ σ?u?v?? + …)。

圖片

這種表示法具有一些有趣的含義。例如,我們有一個矩陣,其中包含不同投資者交易的股票收益率。

圖片

作為基金經(jīng)理,我們可以從中獲取什么信息?尋找模式和結(jié)構(gòu)將是第一步。也許,我們可以找到具有最大收益的股票和投資者的組合。SVD 將 n × n 矩陣分解為具有奇異值 σ? 表示其顯著性的 r 組件。將其視為一種將糾纏和相關(guān)屬性提取到更少的無關(guān)聯(lián)的主要方向的方法。

圖片

如果數(shù)據(jù)高度相關(guān),我們應(yīng)該期望許多 σ? 值較小且可以忽略。

圖片

在我們之前的例子中,體重和身高高度相關(guān)。如果我們有一個包含 1000 人體重和身高的矩陣,SVD 分解中的第一個組件將占主導(dǎo)地位。如我們之前討論的那樣,u? 向量確實表示了這 1000 人之間體重和身高的比例。

圖片

主成分分析(PCA)

從技術(shù)上講,SVD 分別提取具有最高方差的方向中的數(shù)據(jù)。PCA 是將 m 維輸入特征映射到 k 維潛在因子(k 個主成分)的線性模型。如果我們忽略不太重要的項,我們將去除我們不太關(guān)心的組件,但保留具有最高方差(最大信息)的主要方向。

圖片

考慮下面顯示為藍(lán)色點的三維數(shù)據(jù)點。它可以很容易地用一個平面來近似。

圖片

您可能很快就會意識到,我們可以使用 SVD 找到矩陣 W??紤]下面位于二維空間的數(shù)據(jù)點。

圖片

SVD 選擇最大化輸出方差的投影。因此,如果 PCA 具有更高的方差,它會選擇藍(lán)線而不是綠線。

圖片

如下所示,我們保留具有前 kth 最高奇異值的特征向量。

圖片

利率

讓我們通過回顧一個關(guān)于利率數(shù)據(jù)的例子來更深入地說明這個概念,該數(shù)據(jù)源自美國財政部。從 3 個月、6 個月、…到 20 年的 9 種不同利率(基點)在連續(xù) 6 個工作日內(nèi)進(jìn)行了收集,其中 A 存儲了與前一天相比的差異。A 的元素在此期間已經(jīng)減去了其平均值。即它是零中心的(沿著其行)。

圖片

樣本協(xié)方差矩陣等于 S = AA?/(5-1)。

圖片

現(xiàn)在我們有了想要分解的協(xié)方差矩陣 S。SVD 分解為

圖片

從 SVD 分解中,我們意識到我們可以關(guān)注前三個主成分。

圖片

如圖所示,第一個主成分與所有到期長度的日常變化的加權(quán)平均值有關(guān)。第二個主成分調(diào)整了與債券到期長度敏感的日常變化。(第三個主成分可能是曲率 - 二階導(dǎo)數(shù)。)

我們在日常生活中很了解利率變化和期限之間的關(guān)系。因此,主成分重新確認(rèn)了我們相信利率如何運作。但是當(dāng)我們面對陌生的原始數(shù)據(jù)時,PCA 對于提取數(shù)據(jù)的主成分以找到底層信息結(jié)構(gòu)非常有幫助。這可能回答了如何在大海撈針的一些問題。

提示

在執(zhí)行 SVD 之前,對特征進(jìn)行縮放。

圖片

假設(shè)我們想保留 99% 的方差,我們可以選擇 k,使得

圖片

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • SVD
    SVD
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    12170
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8406

    瀏覽量

    132561
  • 線性代數(shù)
    +關(guān)注

    關(guān)注

    5

    文章

    50

    瀏覽量

    11063
收藏 人收藏

    評論

    相關(guān)推薦

    MATLAB線性方程和特征奇異命令

    MATLAB線性方程和特征奇異命令線性方程 \和/ 線性方程求解Chol Cholesky
    發(fā)表于 09-22 16:01

    線性代數(shù)超強(qiáng)總結(jié)

    線性代數(shù)超強(qiáng)總結(jié)
    發(fā)表于 05-26 07:26

    基于改進(jìn)奇異值分解的人耳識別算法研究

    提出了基于特征矩陣和改進(jìn)的奇異值分解的人耳識別算法。采用特征矩陣及Fisher最優(yōu)鑒別分析方法將原始樣本向最優(yōu)鑒別矢量投影,有效地降低了維數(shù),再進(jìn)行奇異值分解后所得
    發(fā)表于 06-29 08:53 ?18次下載

    采用奇異值分解的數(shù)字水印嵌入算法

    提出一種新的數(shù)字水印嵌入算法,采用奇異值分解(SVD)算法對數(shù)據(jù)進(jìn)行分解變換。利用正交矩陣作為容器進(jìn)行水印嵌入,并通過參數(shù)的選擇和糾錯碼的使用提高水印的隱蔽性和魯棒性
    發(fā)表于 07-30 14:30 ?29次下載

    《工程線性代數(shù)(MATLAB版)》程序集

    工程線性代數(shù)(MATLAB版)》程序集:《工程線性代數(shù)(MATLAB版)》第六章例題6.20程序 陳懷琛,高淑萍,楊威合編,電子工業(yè)出版社,2007年6月奇異值分解
    發(fā)表于 10-24 08:40 ?0次下載

    基于整體與部分奇異值分解的人臉識別

    針對原有奇異值分解的不足,本文將圖像矩陣進(jìn)行投影,并對整體與三組局部奇異結(jié)合進(jìn)行改進(jìn),再利用BP 神經(jīng)網(wǎng)絡(luò)進(jìn)行分類識別,對該文提出的方法進(jìn)行了人臉識別實驗。結(jié)
    發(fā)表于 01-13 14:36 ?10次下載

    基于奇異值分解的車牌特征提取方法研究

    研究了基于小波分析的車牌圖像定位、分割、大小歸一化方法,并分析了奇異值分解算法的數(shù)學(xué)原理和算法。利用奇異值分解作為代數(shù)特征提取方法,獲得圖像的有效特征描述。以Mat
    發(fā)表于 10-17 11:08 ?28次下載
    基于<b class='flag-5'>奇異值分解</b>的車牌特征提取方法研究

    線性代數(shù)相關(guān)的基本知識

    線性代數(shù)包含了關(guān)于矩陣的所有相關(guān)的基本知識,可以快速學(xué)習(xí),適合自學(xué)。
    發(fā)表于 12-22 17:58 ?0次下載

    基于FPGA的高光譜圖像奇異值分解降維技術(shù)

    基于FPGA的高光譜圖像奇異值分解降維技術(shù)
    發(fā)表于 08-30 15:10 ?2次下載

    基于BP神經(jīng)網(wǎng)絡(luò)和局部與整體奇異值分解的人臉識別

    基于BP神經(jīng)網(wǎng)絡(luò)和局部與整體奇異值分解的人臉識別matlab
    發(fā)表于 07-29 13:46 ?24次下載

    機(jī)器學(xué)習(xí)線性代數(shù)基礎(chǔ)

    機(jī)器學(xué)習(xí)所需要的一些線性代數(shù)知識
    發(fā)表于 09-04 10:08 ?0次下載

    基于奇異值分解和引導(dǎo)濾波的低照度圖像增強(qiáng)

    基于奇異值分解和引導(dǎo)濾波的低照度圖像增強(qiáng)
    發(fā)表于 06-18 11:53 ?4次下載

    機(jī)器學(xué)習(xí)進(jìn)階線性代數(shù)-奇異值分解(上)

    機(jī)器學(xué)習(xí)(ML)中,最重要的線性代數(shù)概念之一是奇異值分解(SVD)和主成分分析(PCA)。在收集到所有原始數(shù)據(jù)后,我們?nèi)绾伟l(fā)現(xiàn)其中的結(jié)構(gòu)?例如,通過過去6天的利率,我們能否理解其組成
    的頭像 發(fā)表于 05-22 16:26 ?1572次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>進(jìn)階</b><b class='flag-5'>之</b><b class='flag-5'>線性代數(shù)</b>-<b class='flag-5'>奇異值分解</b>(上)

    PyTorch教程2.3線性代數(shù)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程2.3線性代數(shù).pdf》資料免費下載
    發(fā)表于 06-05 11:32 ?1次下載
    PyTorch教程2.3<b class='flag-5'>之</b><b class='flag-5'>線性代數(shù)</b>

    PyTorch教程22.1幾何和線性代數(shù)運算

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程22.1幾何和線性代數(shù)運算.pdf》資料免費下載
    發(fā)表于 06-06 09:26 ?0次下載
    PyTorch教程22.1<b class='flag-5'>之</b>幾何和<b class='flag-5'>線性代數(shù)</b>運算
    RM新时代网站-首页