吴忠躺衫网络科技有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

探討一些可用于解釋機器學習模型的不同技術

電子工程師 ? 來源:lp ? 2019-04-04 17:30 ? 次閱讀

【導語】模型的可解釋性是大多數機器學習系統都需要的一種能力,即能向用戶解釋模型能做出這些預測的原因。在本篇文章中,作者將與大家探討一些可用于解釋機器學習模型的不同技術,并且重點介紹兩種提供全局和局部解釋、且與模型本身無關可解釋性技術。這些技術可以應用于任何機器學習算法,并通過分析機器學習模型的響應函數來實現可解釋性。

前言

在選擇一個合適的機器學習模型時,通常需要我們權衡模型準確性與可解釋性之間的關系:

黑盒模型 (black-box):諸如神經網絡、梯度增強模型或復雜的集成模型此類的黑盒模型 (black-box model) 通常具有很高的準確性。然而,這些模型的內部工作機制卻難以理解,也無法估計每個特征對模型預測結果的重要性,更不能理解不同特征之間的相互作用關系。

白盒模型(white-box):另一方面,像線性回歸和決策樹之類的簡單模型的預測能力通常是有限的,且無法對數據集內在的復雜性進行建模 (如特征交互)。然而,這類簡單模型通常有更好的可解釋性,內部的工作原理也更容易解釋。

模型準確性與可解釋性關系之間的權衡取決于一個重要的假設:“可解釋性是模型的一個固有屬性”。通過正確的可解釋性技術,任何機器學習模型內部工作機理都能夠得以解釋,盡管這需要付出一些復雜性和計算成本的代價。

模型屬性

機器學習模型的可解釋程度通常與響應函數 (response function) 的兩個屬性相關。模型的響應函數 f(x) 定義模型的輸入 (特征x) 和輸出 (目標函數 f(x)) 之間的輸入-輸出對關系,而這主要取決于機器學習模型,該函數具有以下特征:

線性:在線性響應函數中,特征與目標之間呈線性關系。如果一個特征線性變化,那么期望中目標將以相似的速率線性變化。

單調性:在單調響應函數中,特征與目標對于之間的關系始終在一個方向上變化 (增大或減小)。更重要的是,這種關系適用于整個特征域,且與其他的特征變量無關。

單調線性響應函數實例 (其中輸入變量為 x,響應變量為 y)

線性回歸模型的響應函數就是個線性單調函數,而隨機森林和神經網絡的響應函數則是高度非線性、非單調響應函數的例子。

下圖則闡述了在需要清晰簡單的模型可解釋性時,通常首選白盒模型 (具有線性和單調函數) 的原因。圖的上半部顯示,隨著年齡的增長,購買數量會增加,模型的響應函數在全局范圍內具有線性和單調關系,易于解釋模型。

然而,由于白盒模型響應函數的線性和單調約束,通常容易忽略其變化趨勢的重要部分。通過探索更復雜的機器學習模型能夠更好地擬合觀測數據,而這些復雜模型的響應函數只是在局部呈單調線性變化。因此,為了解釋模型的行為,研究模型局部變化情況是很有必要的。

模型可解釋性的范圍,如全局或局部層面,都與模型的復雜性緊密相關。線性模型在整個特征空間中將表現出相同的行為 (如上圖所示),因此它們具有全局可解釋性。而輸入和輸出之間的關系通常受到復雜性和局部解釋的限制 (如為什么模型在某個數據點進行某種預測?),將其默認為全局性解釋。

對于那些更復雜的模型,模型的全局行為就更難定義了,而且還需要對其響應函數的小區域進行局部解釋。這些小區域可能表現出線性和單調,以便得到更準確的解釋。

ML 庫 (例如 sklearn) 允許對不同分類器進行快速比較。當數據集的大小和維度受限時,我們還可以解釋模型的預測結果。但在大多數現實問題中,情況就不再是如此。

接下來將為大家重點介紹兩種提供全局和局部解釋、且與模型本身無關可解釋性技術。這些技術可以應用于任何機器學習算法,并通過分析機器學習模型的響應函數來實現可解釋性。

可解釋性技術

1、代理模型 (Surrogate models)

代理模型通常是一種簡單模型,用于解釋那些復雜模型。常用的代理模型有線性模型和決策樹模型,主要是由于這些模型易于解釋。構建代理模型,將其用于表示復雜模型 (響應函數) 的決策過程,并作用于輸入和模型預測,而不是在輸入和目標上訓練。

代理模型在非線性和非單調模型之上提供了一個全局可解釋層,但它們不完全相互依賴。它的作用只要是作為模型的“全局總結”,并不能完美地表示模型底層的響應函數,也不能捕獲復雜的特征關系。以下步驟說明了如何為復雜的黑盒模型構建代理模型:

訓練一個黑盒模型。

在數據集上評估黑盒模型。

選擇一個可解釋的代理模型 (通常是線性模型或決策樹模型)。

在數據集上訓練這個可解釋性模型,并預測。

確定代理模型的錯誤度量,并解釋該模型。

2、LIME

LIME 是另一種可解釋性技術,它的核心思想與代理模型相同。然而,LIME 并不是通過構建整個數據集的全局代理模型,而只是構建部分區域預測解釋的局部代理模型 (線性模型),來解釋模型的行為。有關 LIME 技術的深入解釋,可以參閱 LIME 有關的文章

文章鏈接:

https://towardsdatascience.com/understanding-model-predictions-with-lime-a582fdff3a3b

此外,LIME 方法能夠提供一種直觀的方法來解釋給定數據的模型預測結果。有關如何為復雜的黑盒模型構建 LIME 解釋模型的步驟如下:

訓練一個黑盒模型。

采樣局部感興趣區域的樣本點,這些樣本點可以從數據集中直接檢索,也可以人工生成。

通過鄰近的感興趣區域對新樣本進行加權,通過在數據集上使用變量來擬合得到一個加權的、可解釋的代理模型。

解釋這個局部代理模型。

結論

總的來說,你可以通過幾種不同的技術來提高機器學習模型的可解釋性。盡管,隨著相關領域研究的改進,這些技術也將變得越來越強大,但使用不同技術并進行比較仍然是很重要的。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4779

    瀏覽量

    101172
  • 機器學習
    +關注

    關注

    66

    文章

    8439

    瀏覽量

    133087
  • 數據集
    +關注

    關注

    4

    文章

    1209

    瀏覽量

    24834

原文標題:機器學習的可解釋性:黑盒vs白盒(內附開源學習書) | Deep Reading

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    機器學習模型解釋性的結果分析

    模型的可解釋性是機器學習領域的個重要分支,隨著 AI 應用范圍的不斷擴大,人們越來越不滿足于模型
    發表于 09-28 10:17 ?1056次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b>可<b class='flag-5'>解釋</b>性的結果分析

    分享一些最常見最實用的機器學習算法

    在這篇文章中,分享一些最常用的機器學習算法。
    的頭像 發表于 10-14 14:24 ?9155次閱讀
    分享<b class='flag-5'>一些</b>最常見最實用的<b class='flag-5'>機器</b><b class='flag-5'>學習</b>算法

    如何通過XGBoost解釋機器學習

    本文為大家介紹用XGBoost解釋機器學習。 這是個故事,關于錯誤地解釋機器
    發表于 10-12 11:48 ?1850次閱讀
    如何通過XGBoost<b class='flag-5'>解釋</b><b class='flag-5'>機器</b><b class='flag-5'>學習</b>

    介紹下labview機器視覺怎么實現一些零件尺寸的測量。

    本帖最后由 forgiveroc 于 2016-9-10 18:25 編輯 RT,針對入門,高手多多指教呀~。斷斷續續的學習下labview機器視覺,做了一些簡單的案例,在這
    發表于 03-12 16:36

    【下載】《機器學習》+《機器學習實戰》

    數據分析及可視化。通過各種實例,讀者可從中學會機器學習的核心算法,并能將其運用于一些策略性任務中,如分類、預測、推薦。另外,還可用它們來實現
    發表于 06-01 15:49

    軟體機器人學習問題探討

    學習探討軟體機器人結構設計、柔性制造、運動控制、裝配和調試等內容,使學員熟練應用控制工程理論、自動化、材料力學、機械原理、機械設計、3D打印等基礎知識,培養和提高學員對軟體機器人目
    發表于 08-12 15:09

    什么是機器學習? 機器學習基礎入門

    工程師在數據收集過程中使用標簽對數據集進行分類數據收集和標記是個耗時的過程,但對于正確處理數據至關重要。雖然機器學習領域有一些創新,利用預先訓練的
    發表于 06-21 11:06

    如何描述機器學習中的一些綜合能力

    當我在閱讀機器學習相關文獻的時候, 我經常思考這項工作是否:提高了模型的表達能力;使模型更易于訓練; 提高了模型的泛化性能。
    的頭像 發表于 04-04 11:12 ?5632次閱讀

    機器學習一些代碼示例合集

    本文檔的主要內容詳細介紹的是機器學習一些代碼示例合集。
    發表于 04-29 08:00 ?1次下載
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>的<b class='flag-5'>一些</b>代碼示例合集

    詳談機器學習的決策樹模型

    決策樹模型是白盒模型種,其預測結果可以由人來解釋。我們把機器學習
    的頭像 發表于 07-06 09:49 ?3648次閱讀
    詳談<b class='flag-5'>機器</b><b class='flag-5'>學習</b>的決策樹<b class='flag-5'>模型</b>

    關于機器學習模型的六大可解釋技術

    本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術
    的頭像 發表于 02-26 17:20 ?2256次閱讀
    關于<b class='flag-5'>機器</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b>的六大可<b class='flag-5'>解釋</b>性<b class='flag-5'>技術</b>

    機器學習模型的可解釋性算法詳解

    本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術,包括它們的相對優點和缺點。
    的頭像 發表于 02-16 16:21 ?4799次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b>的可<b class='flag-5'>解釋</b>性算法詳解

    解釋機器學習

    解釋機器學習
    發表于 06-17 14:41 ?1次下載

    可以提高機器學習模型的可解釋技術

    本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術,包括它們的相對優點和缺點。
    的頭像 發表于 02-08 14:08 ?1321次閱讀

    機器學習技術是什么?機器學習技術在新型電力系統安全穩定中的應用

    一些能夠推斷未知數據的規則和模型機器學習技術目前已經廣泛應用于許多領域,如圖像和語音識別、自然
    的頭像 發表于 08-17 16:30 ?1179次閱讀
    新百家乐官网庄闲路单图记录| KK百家乐官网娱乐城| 百家乐视频中国象棋| 威尼斯人娱乐城代理合作| 工布江达县| 百家乐官网娱乐网网| 郑州太阳城宾馆| 百家乐官网园会员注册| 百家乐网投开户| 大发888 dafa888游戏| 免费下百家乐官网赌博软件| 百家乐平投注法| 澳门葡京| 云鼎百家乐官网的玩法技巧和规则 | 大亨百家乐官网游戏| 百家乐官网娱乐城游戏| 百家乐棋牌技巧| 云鼎娱乐城优惠活动| 综合百家乐官网博彩论坛| 顶级赌场手机版官方| 沙龙百家乐官网赌场娱乐网规则| 太阳城投诉| 百家乐官网中的小路怎样| 大发888棋牌游戏下载| 百家乐官网六合彩| 正品百家乐网站| 正品百家乐官网游戏| 大发888娱乐日博备用| 百家乐官网的玩法技巧和规则 | 如何看百家乐官网的路纸| 百家乐桌出租| bet365后备网址| 饿火命适合做生意吗| 博彩网论坛| 百家乐有电脑游戏吗| 百家乐官网投注心得| 百家乐皇室百家乐的玩法技巧和规则| 澳门百家乐官网娱乐城怎么样| 澳门百家乐经| 百家乐官网国际娱乐网| bet365注册哪家好|