在機器學(xué)習(xí)中,有一種叫做「沒有免費的午餐」的定理。簡而言之,它指出沒有任何一種算法對所有問題都有效,在監(jiān)督學(xué)習(xí)(即預(yù)測建模)中尤其如此。
例如,你不能說神經(jīng)網(wǎng)絡(luò)總是比決策樹好,反之亦然。有很多因素在起作用,例如數(shù)據(jù)集的大小和結(jié)構(gòu)。
因此,你應(yīng)該針對具體問題嘗試多種不同算法,并留出一個數(shù)據(jù)「測試集」來評估性能、選出優(yōu)勝者。
當(dāng)然,你嘗試的算法必須適合你的問題,也就是選擇正確的機器學(xué)習(xí)任務(wù)。打個比方,如果你需要打掃房子,你可能會用吸塵器、掃帚或拖把,但是你不會拿出鏟子開始挖土。
大原則
不過也有一個普遍原則,即所有監(jiān)督機器學(xué)習(xí)算法預(yù)測建模的基礎(chǔ)。
機器學(xué)習(xí)算法被描述為學(xué)習(xí)一個目標(biāo)函數(shù) f,該函數(shù)將輸入變量 X 最好地映射到輸出變量 Y:Y = f(X)
這是一個普遍的學(xué)習(xí)任務(wù),我們可以根據(jù)輸入變量 X 的新樣本對 Y 進(jìn)行預(yù)測。我們不知道函數(shù) f 的樣子或形式。如果我們知道的話,我們將會直接使用它,不需要用機器學(xué)習(xí)算法從數(shù)據(jù)中學(xué)習(xí)。
最常見的機器學(xué)習(xí)算法是學(xué)習(xí)映射 Y = f(X) 來預(yù)測新 X 的 Y。這叫做預(yù)測建?;蝾A(yù)測分析,我們的目標(biāo)是盡可能作出最準(zhǔn)確的預(yù)測。
對于想了解機器學(xué)習(xí)基礎(chǔ)知識的新手,本文將概述數(shù)據(jù)科學(xué)家使用的 top 10 機器學(xué)習(xí)算法。
1. 線性回歸
線性回歸可能是統(tǒng)計學(xué)和機器學(xué)習(xí)中最知名和最易理解的算法之一。
預(yù)測建模主要關(guān)注最小化模型誤差或者盡可能作出最準(zhǔn)確的預(yù)測,以可解釋性為代價。我們將借用、重用包括統(tǒng)計學(xué)在內(nèi)的很多不同領(lǐng)域的算法,并將其用于這些目的。
線性回歸的表示是一個方程,它通過找到輸入變量的特定權(quán)重(稱為系數(shù) B),來描述一條最適合表示輸入變量 x 與輸出變量 y 關(guān)系的直線。
例如:y = B0 + B1 * x
我們將根據(jù)輸入 x 預(yù)測 y,線性回歸學(xué)習(xí)算法的目標(biāo)是找到系數(shù) B0 和 B1 的值。
可以使用不同的技術(shù)從數(shù)據(jù)中學(xué)習(xí)線性回歸模型,例如用于普通最小二乘法和梯度下降優(yōu)化的線性代數(shù)解。
線性回歸已經(jīng)存在了 200 多年,并得到了廣泛研究。使用這種技術(shù)的一些經(jīng)驗是盡可能去除非常相似(相關(guān))的變量,并去除噪音。這是一種快速、簡單的技術(shù),可以首先嘗試一下。
2. Logistic 回歸
Logistic 回歸是機器學(xué)習(xí)從統(tǒng)計學(xué)中借鑒的另一種技術(shù)。它是解決二分類問題的首選方法。
Logistic 回歸與線性回歸相似,目標(biāo)都是找到每個輸入變量的權(quán)重,即系數(shù)值。與線性回歸不同的是,Logistic 回歸對輸出的預(yù)測使用被稱為 logistic 函數(shù)的非線性函數(shù)進(jìn)行變換。
logistic 函數(shù)看起來像一個大的 S,并且可以將任何值轉(zhuǎn)換到 0 到 1 的區(qū)間內(nèi)。這非常實用,因為我們可以規(guī)定 logistic 函數(shù)的輸出值是 0 和 1(例如,輸入小于 0.5 則輸出為 1)并預(yù)測類別值。
由于模型的學(xué)習(xí)方式,Logistic 回歸的預(yù)測也可以作為給定數(shù)據(jù)實例(屬于類別 0 或 1)的概率。這對于需要為預(yù)測提供更多依據(jù)的問題很有用。
像線性回歸一樣,Logistic 回歸在刪除與輸出變量無關(guān)的屬性以及非常相似(相關(guān))的屬性時效果更好。它是一個快速的學(xué)習(xí)模型,并且對于二分類問題非常有效。
3. 線性判別分析(LDA)
Logistic 回歸是一種分類算法,傳統(tǒng)上,它僅限于只有兩類的分類問題。如果你有兩個以上的類別,那么線性判別分析是首選的線性分類技術(shù)。
LDA 的表示非常簡單直接。它由數(shù)據(jù)的統(tǒng)計屬性構(gòu)成,對每個類別進(jìn)行計算。單個輸入變量的 LDA 包括:
每個類別的平均值;
所有類別的方差。
進(jìn)行預(yù)測的方法是計算每個類別的判別值并對具備最大值的類別進(jìn)行預(yù)測。該技術(shù)假設(shè)數(shù)據(jù)呈高斯分布(鐘形曲線),因此最好預(yù)先從數(shù)據(jù)中刪除異常值。這是處理分類預(yù)測建模問題的一種簡單而強大的方法。
4. 分類與回歸樹
決策樹是預(yù)測建模機器學(xué)習(xí)的一種重要算法。
決策樹模型的表示是一個二叉樹。這是算法和數(shù)據(jù)結(jié)構(gòu)中的二叉樹,沒什么特別的。每個節(jié)點代表一個單獨的輸入變量 x 和該變量上的一個分割點(假設(shè)變量是數(shù)字)。
決策樹的葉節(jié)點包含一個用于預(yù)測的輸出變量 y。通過遍歷該樹的分割點,直到到達(dá)一個葉節(jié)點并輸出該節(jié)點的類別值就可以作出預(yù)測。
決策樹學(xué)習(xí)速度和預(yù)測速度都很快。它們還可以解決大量問題,并且不需要對數(shù)據(jù)做特別準(zhǔn)備。
5. 樸素貝葉斯
樸素貝葉斯是一個簡單但是很強大的預(yù)測建模算法。
該模型由兩種概率組成,這兩種概率都可以直接從訓(xùn)練數(shù)據(jù)中計算出來:1)每個類別的概率;2)給定每個 x 的值,每個類別的條件概率。一旦計算出來,概率模型可用于使用貝葉斯定理對新數(shù)據(jù)進(jìn)行預(yù)測。當(dāng)你的數(shù)據(jù)是實值時,通常假設(shè)一個高斯分布(鐘形曲線),這樣你可以簡單的估計這些概率。
樸素貝葉斯之所以是樸素的,是因為它假設(shè)每個輸入變量是獨立的。這是一個強大的假設(shè),真實的數(shù)據(jù)并非如此,但是,該技術(shù)在大量復(fù)雜問題上非常有用。
6. K 近鄰算法
KNN 算法非常簡單且有效。KNN 的模型表示是整個訓(xùn)練數(shù)據(jù)集。是不是很簡單?
KNN 算法在整個訓(xùn)練集中搜索 K 個最相似實例(近鄰)并匯總這 K 個實例的輸出變量,以預(yù)測新數(shù)據(jù)點。對于回歸問題,這可能是平均輸出變量,對于分類問題,這可能是眾數(shù)(或最常見的)類別值。
訣竅在于如何確定數(shù)據(jù)實例間的相似性。如果屬性的度量單位相同(例如都是用英寸表示),那么最簡單的技術(shù)是使用歐幾里得距離,你可以根據(jù)每個輸入變量之間的差值直接計算出來其數(shù)值。
KNN 需要大量內(nèi)存或空間來存儲所有數(shù)據(jù),但是只有在需要預(yù)測時才執(zhí)行計算(或?qū)W習(xí))。你還可以隨時更新和管理訓(xùn)練實例,以保持預(yù)測的準(zhǔn)確性。
距離或緊密性的概念可能在非常高的維度(很多輸入變量)中會瓦解,這對算法在你的問題上的性能產(chǎn)生負(fù)面影響。這被稱為維數(shù)災(zāi)難。因此你最好只使用那些與預(yù)測輸出變量最相關(guān)的輸入變量。
7. 學(xué)習(xí)向量量化
K 近鄰算法的一個缺點是你需要遍歷整個訓(xùn)練數(shù)據(jù)集。學(xué)習(xí)向量量化算法(簡稱 LVQ)是一種人工神經(jīng)網(wǎng)絡(luò)算法,它允許你選擇訓(xùn)練實例的數(shù)量,并精確地學(xué)習(xí)這些實例應(yīng)該是什么樣的。
LVQ 的表示是碼本向量的集合。這些是在開始時隨機選擇的,并逐漸調(diào)整以在學(xué)習(xí)算法的多次迭代中最好地總結(jié)訓(xùn)練數(shù)據(jù)集。在學(xué)習(xí)之后,碼本向量可用于預(yù)測(類似 K 近鄰算法)。最相似的近鄰(最佳匹配的碼本向量)通過計算每個碼本向量和新數(shù)據(jù)實例之間的距離找到。然后返回最佳匹配單元的類別值或(回歸中的實際值)作為預(yù)測。如果你重新調(diào)整數(shù)據(jù),使其具有相同的范圍(比如 0 到 1 之間),就可以獲得最佳結(jié)果。
如果你發(fā)現(xiàn) KNN 在你的數(shù)據(jù)集上達(dá)到很好的結(jié)果,請嘗試用 LVQ 減少存儲整個訓(xùn)練數(shù)據(jù)集的內(nèi)存要求。
8. 支持向量機(SVM)
支持向量機可能是最受歡迎和最廣泛討論的機器學(xué)習(xí)算法之一。
超平面是分割輸入變量空間的一條線。在 SVM 中,選擇一條可以最好地根據(jù)輸入變量類別(類別 0 或類別 1)對輸入變量空間進(jìn)行分割的超平面。在二維中,你可以將其視為一條線,我們假設(shè)所有的輸入點都可以被這條線完全的分開。SVM 學(xué)習(xí)算法找到了可以讓超平面對類別進(jìn)行最佳分割的系數(shù)。
超平面和最近的數(shù)據(jù)點之間的距離被稱為間隔。分開兩個類別的最好的或最理想的超平面具備最大間隔。只有這些點與定義超平面和構(gòu)建分類器有關(guān)。這些點被稱為支持向量,它們支持或定義了超平面。實際上,優(yōu)化算法用于尋找最大化間隔的系數(shù)的值。
SVM 可能是最強大的立即可用的分類器之一,值得一試。
9. Bagging 和隨機森林
隨機森林是最流行和最強大的機器學(xué)習(xí)算法之一。它是 Bootstrap Aggregation(又稱 bagging)集成機器學(xué)習(xí)算法的一種。
bootstrap 是從數(shù)據(jù)樣本中估算數(shù)量的一種強大的統(tǒng)計方法。例如平均數(shù)。你從數(shù)據(jù)中抽取大量樣本,計算平均值,然后平均所有的平均值以便更好的估計真實的平均值。
bagging 使用相同的方法,但是它估計整個統(tǒng)計模型,最常見的是決策樹。在訓(xùn)練數(shù)據(jù)中抽取多個樣本,然后對每個數(shù)據(jù)樣本建模。當(dāng)你需要對新數(shù)據(jù)進(jìn)行預(yù)測時,每個模型都進(jìn)行預(yù)測,并將所有的預(yù)測值平均以便更好的估計真實的輸出值。
隨機森林是對這種方法的一種調(diào)整,在隨機森林的方法中決策樹被創(chuàng)建以便于通過引入隨機性來進(jìn)行次優(yōu)分割,而不是選擇最佳分割點。
因此,針對每個數(shù)據(jù)樣本創(chuàng)建的模型將會與其他方式得到的有所不同,不過雖然方法獨特且不同,它們?nèi)匀皇菧?zhǔn)確的。結(jié)合它們的預(yù)測可以更好的估計真實的輸出值。
如果你用方差較高的算法(如決策樹)得到了很好的結(jié)果,那么通??梢酝ㄟ^ bagging 該算法來獲得更好的結(jié)果。
10. Boosting 和 AdaBoost
Boosting 是一種集成技術(shù),它試圖集成一些弱分類器來創(chuàng)建一個強分類器。這通過從訓(xùn)練數(shù)據(jù)中構(gòu)建一個模型,然后創(chuàng)建第二個模型來嘗試糾正第一個模型的錯誤來完成。一直添加模型直到能夠完美預(yù)測訓(xùn)練集,或添加的模型數(shù)量已經(jīng)達(dá)到最大數(shù)量。
AdaBoost 是第一個為二分類開發(fā)的真正成功的 boosting 算法。這是理解 boosting 的最佳起點?,F(xiàn)代 boosting 方法建立在 AdaBoost 之上,最顯著的是隨機梯度提升。
AdaBoost 與短決策樹一起使用。在第一個決策樹創(chuàng)建之后,利用每個訓(xùn)練實例上樹的性能來衡量下一個決策樹應(yīng)該對每個訓(xùn)練實例付出多少注意力。難以預(yù)測的訓(xùn)練數(shù)據(jù)被分配更多權(quán)重,而容易預(yù)測的數(shù)據(jù)分配的權(quán)重較少。依次創(chuàng)建模型,每個模型在訓(xùn)練實例上更新權(quán)重,影響序列中下一個決策樹的學(xué)習(xí)。在所有決策樹建立之后,對新數(shù)據(jù)進(jìn)行預(yù)測,并且通過每個決策樹在訓(xùn)練數(shù)據(jù)上的精確度評估其性能。
因為在糾正算法錯誤上投入了太多注意力,所以具備已刪除異常值的干凈數(shù)據(jù)非常重要。
總結(jié)
初學(xué)者在面對各種機器學(xué)習(xí)算法時經(jīng)常問:「我應(yīng)該用哪個算法?」這個問題的答案取決于很多因素,包括:
(1)數(shù)據(jù)的大小、質(zhì)量和特性;
(2)可用的計算時間;
(3)任務(wù)的緊迫性;
(4)你想用這些數(shù)據(jù)做什么。
即使是經(jīng)驗豐富的數(shù)據(jù)科學(xué)家在嘗試不同的算法之前,也無法分辨哪種算法會表現(xiàn)最好。雖然還有很多其他的機器學(xué)習(xí)算法,但本篇文章中討論的是最受歡迎的算法。如果你是機器學(xué)習(xí)的新手,這將是一個很好的學(xué)習(xí)起點。
-
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8406瀏覽量
132561 -
線性回歸
+關(guān)注
關(guān)注
0文章
41瀏覽量
4306
原文標(biāo)題:機器學(xué)習(xí)萌新必學(xué)的Top10算法
文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論