目前很多機器學習模型可以做出非常好的預測,但是它們并不能很好地解釋他們是如何進行預測的,很多數(shù)據(jù)科學家都很難知曉為什么該算法會得到這樣的預測結(jié)果。這是非常致命的,因為如果我們無法知道某個算法是如何進行預測,那么我們將很難將其前一道其它的問題中,很難進行算法的debug。
本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術(shù),包括它們的相對優(yōu)點和缺點。我們將其分為下面幾種:
Partial Dependence Plot (PDP);
Individual Conditional Expectation (ICE)
Permuted Feature Importance
Global Surrogate
Local Surrogate (LIME)
Shapley Value (SHAP)
六大可解釋性技術(shù)
01
Partial Dependence Plot (PDP)
PDP是十幾年之前發(fā)明的,它可以顯示一個或兩個特征對機器學習模型的預測結(jié)果的邊際效應。它可以幫助研究人員確定當大量特征調(diào)整時,模型預測會發(fā)生什么樣的變化。
上面圖中,軸表示特征的值,軸表示預測值。陰影區(qū)域中的實線顯示了平均預測如何隨著值的變化而變化。PDP能很直觀地顯示平均邊際效應,因此可能會隱藏異質(zhì)效應。
例如,一個特征可能與一半數(shù)據(jù)的預測正相關(guān),與另一半數(shù)據(jù)負相關(guān)。那么PDP圖將只是一條水平線。
02
Individual Conditional Expectation (ICE)
ICE和PDP非常相似,但和PDP不同之處在于,PDP繪制的是平均情況,但是ICE會顯示每個實例的情況。ICE可以幫助我們解釋一個特定的特征改變時,模型的預測會怎么變化。
如上圖所示,與PDP不同,ICE曲線可以揭示異質(zhì)關(guān)系。但其最大的問題在于:它不能像PDP那樣容易看到平均效果,所以可以考慮將二者結(jié)合起來一起使用。
03
Permuted Feature Importance
Permuted Feature Importance的特征重要性是通過特征值打亂后模型預測誤差的變化得到的。換句話說,Permuted Feature Importance有助于定義模型中的特征對最終預測做出貢獻的大小。
如上圖所示,特征f2在特征的最上面,對模型的誤差影響是最大的,f1在shuffle之后對模型卻幾乎沒什么影響,生息的特征則對于模型是負面的貢獻。
04
Global Surrogate
Global Surrogate方法采用不同的方法。它通過訓練一個可解釋的模型來近似黑盒模型的預測。
首先,我們使用經(jīng)過訓練的黑盒模型對數(shù)據(jù)集進行預測;
然后我們在該數(shù)據(jù)集和預測上訓練可解釋的模型。
訓練好的可解釋模型可以近似原始模型,我們需要做的就是解釋該模型。
注:代理模型可以是任何可解釋的模型:線性模型、決策樹、人類定義的規(guī)則等。
使用可解釋的模型來近似黑盒模型會引入額外的誤差,但額外的誤差可以通過R平方來衡量。
由于代理模型僅根據(jù)黑盒模型的預測而不是真實結(jié)果進行訓練,因此全局代理模型只能解釋黑盒模型,而不能解釋數(shù)據(jù)。
05
Local Surrogate (LIME)
LIME(Local Interpretable Model-agnostic Explanations)和global surrogate是不同的,因為它不嘗試解釋整個模型。相反,它訓練可解釋的模型來近似單個預測。LIME試圖了解當我們擾亂數(shù)據(jù)樣本時預測是如何變化的。
上面左邊的圖像被分成可解釋的部分。然后,LIME 通過“關(guān)閉”一些可解釋的組件(在這種情況下,使它們變灰)來生成擾動實例的數(shù)據(jù)集。對于每個擾動實例,可以使用經(jīng)過訓練的模型來獲取圖像中存在樹蛙的概率,然后在該數(shù)據(jù)集上學習局部加權(quán)線性模型。最后,使用具有最高正向權(quán)重的成分來作為解釋。
06
Shapley Value (SHAP)
Shapley Value的概念來自博弈論。我們可以通過假設實例的每個特征值是游戲中的“玩家”來解釋預測。每個玩家的貢獻是通過在其余玩家的所有子集中添加和刪除玩家來衡量的。一名球員的Shapley Value是其所有貢獻的加權(quán)總和。Shapley 值是可加的,局部準確的。如果將所有特征的Shapley值加起來,再加上基值,即預測平均值,您將得到準確的預測值。這是許多其他方法所沒有的功能。
該圖顯示了每個特征的Shapley值,表示將模型結(jié)果從基礎(chǔ)值推到最終預測的貢獻。紅色表示正面貢獻,藍色表示負面貢獻。
小結(jié)
機器學習模型的可解釋性是機器學習中一個非常活躍而且重要的研究領(lǐng)域。本文中我們介紹了6種常用的用于理解機器學習模型的算法。大家可以依據(jù)自己的實踐場景進行使用。
-
PDP
+關(guān)注
關(guān)注
0文章
53瀏覽量
36213 -
機器學習
+關(guān)注
關(guān)注
66文章
8405瀏覽量
132546
原文標題:機器學習模型的可解釋性算法匯總!
文章出處:【微信號:機器視覺沙龍,微信公眾號:機器視覺沙龍】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論