相关文章
【XAI】Nettack IG-JSMA
文章目录 前言.问题形式化.Nettack.IG-JSMA.实验.Nettack.IG-JSMA. 细节与补充. 前言. N e t t a c k \rm Nettack Nettack 和 I G − J S M A \rm IG-JSMA IG−JSMA 是针对图神经网络进行对抗攻击的两种方法,前者发表在 K D D 2018 \rm KDD~2018 KDD 2018&#x…
建站知识
2025/1/14 21:21:56
XAI之GS:全局代理(Global Surrogate,对黑盒机器学习执行模型可解释性的技术)的简介、常用工具包、案例应用之详细攻略
XAI之GS:全局代理(Global Surrogate,对黑盒机器学习执行模型可解释性的技术)的简介、常用工具包、案例应用之详细攻略 目录
建站知识
2024/12/20 10:11:04
XAI Explainable AI 模型可解释性(1)
前言: 搜索这个话题的壮士,一定是想寻找一种更适合自己模型可解释的方法,提升模型的可信和透明度,帮助于模型优化改进或者模型识别和防止偏差等等。故这里不再把时间浪费在什么是可解释这样的问题上。笔者把目前的解释性方法汇总在下面&#…
建站知识
2024/12/20 2:24:37
可解释的AI (XAI):如何使用LIME 和 SHAP更好地解释模型的预测
作为数据科学家或机器学习从业者,将可解释性集成到机器学习模型中可以帮助决策者和其他利益相关者有更多的可见性并可以让他们理解模型输出决策的解释。
在本文中,我将介绍两个可以帮助了解模型的决策过程的模型 LIME 和 SHAP。
模型
我们将使用来自 …
建站知识
2024/12/20 22:03:51
XAI/ML:机器学习模型可解释性之量化特征贡献度(特征重要性)的函数详解(feature_importances_/plot_partial_dependence/permutation_impor
XAI/ML:机器学习模型可解释性之量化特征贡献度(特征重要性)的函数详解(feature_importances_/plot_partial_dependence/permutation_importance) 目录
1、feature_importances_函数
1.1、源代码解读
LGBMClassifier
XGBClassifier
feature_importances_的原生代码
建站知识
2024/12/20 19:13:07
XAI(可解释 AI):SHAP(SHapley Additive exPlanations)【机器学习、深度学习解释库】
我们知道模型可解释性已成为机器学习管道的基本部分,它使得机器学习模型不再是"黑匣子"。
幸运的是,近年来机器学习相关工具正在迅速发展并变得越来越流行。本文主要是针对回归问题的 SHAP 开源 Python 包进行 XAI 分析。
Lundberg 和 Lee (2016) 的 SHAP(Shapl…
建站知识
2024/12/20 11:38:08
XAI Explainable AI 模型可解释性(2)
深度学习中的可解释性方法,前接常规机器学习的可解释性方法。
隐层分析法 模拟模型方法 注意力机制分段线性函数下的神经网络(Piecewise Linear Neural Networks, PLNN) 1、隐层分析法,通过关注某些神经元节点对结果的影响程度或关联关系,…
建站知识
2024/12/21 0:38:16