2024深度学习发论文&模型涨点之——SHAP可解释学习
SHAP(SHapley Additive exPlanations)是一种用于解释机器学习模型预测结果的方法,它基于Shapley值理论,通过将预测结果分解为每个特征的影响,为模型提供全局和局部的可解释性。
SHAP的核心思想是将特征值的贡献分配到不同的特征中,计算每个特征的Shapley值,并将其与特征值相乘得到该特征对于预测结果的贡献。这种方法可以用于机器学习模型,包括分类和回归模型,可以生成图像化和定量的解释结果,帮助用户解释模型的决策过程。
论文精选
论文1:
SHAP value-based ERP analysis (SHERPA): Increasing the sensitivity of EEG signals with explainable AI methods
基于SHAP值的ERP分析(SHERPA):用可解释的AI方法提高EEG信号的敏感性
方法
-
卷积神经网络(CNN):用于分类实验条件,提取EEG信号中的特征。
-
SHAPley Additive exPlanations (SHAP):作为事后解释器,识别重要的时间和空间特征,以理解ERP数据中的模式。
创新点
-
SHERPA方法:结合了CNN和SHAP,提供了一种新颖的方法来自动识别ERP分析中最重要的时间点和电极,无需先验假设。
-
重要性评分:通过计算“重要性评分”量化ERP对心理机制的相关性,提高了ERP信号的敏感性。
-
数据驱动与研究者驱动方法的结合:SHERPA结合了数据驱动方法和研究者驱动方法的优点,提供了更精确的结果,同时避免了多重比较问题和统计校正的影响。
论文2:
SHAP-IQ: Unified Approximation of any-order Shapley Interactions
SHAP-IQ:任何阶Shapley相互作用的统一近似
方法
-
基于采样的近似器:提出了一种高效的基于采样的方法来计算任意阶的Shapley相互作用。
-
理论保证:为近似质量提供了理论保证,并估计了点估计的方差。
-
特殊情况下的SV表示:对于特殊情况的Shapley值(SV),提供了一种新的表示方法,并与Unbiased KernelSHAP相对应,简化了计算。
创新点
-
SHAPley Interaction Quantification (SHAP-IQ):提出了一种新的统一近似方法,可以应用于任何满足线性、对称和虚拟公理的基数相互作用指数(CII)。
-
效率和效果:通过解释语言、图像分类和高维合成模型,展示了SHAP-IQ在计算效率和效果上的优势。
-
理论基础:为SHAP-IQ提供了坚实的理论基础,包括无偏性、一致性和一般近似界限的证明,以及对n-Shapley值和Shapley Taylor相互作用指数的效率条件的证明。
论文3:
SHapley Additive exPlanations (SHAP) for Efficient Feature Selection in Rolling Bearing Fault Diagnosis
滚动轴承故障诊断中高效特征选择的SHapley Additive exPlanations (SHAP)
方法
-
三阶段方法:提出了一个三阶段的故障检测、分类和严重程度估计的方法,每个阶段都构建不同的机器学习模型来处理特定的任务。
-
特征选择:使用可解释的人工智能(XAI)技术来精心选择机器学习(ML)模型的最优特征。
-
支持向量机(SVM):选择SVM作为故障检测、分类和严重程度估计任务的机器学习技术。
-
Case Western Reserve University (CWRU) 基准:使用CWRU基准来验证方法,这是一个公认的滚动轴承故障分析的基准。
创新点
-
阶段性方法:通过将故障诊断任务分解为三个阶段,并且利用前一阶段的信息来优化后续阶段,提高了故障诊断的有效性。
-
SHAP值的应用:首次将SHAP值应用于故障诊断领域,用于解释模型预测并识别关键特征,增强了模型的可解释性。
-
特征选择的优化:即使在特征数量非常有限的情况下,也能通过SHAP值选择最优特征集,实现超过90%的准确率,提高了模型的效率和准确性。
-
模型的泛化能力:所提出的方法不仅适用于特定的特征集和机器学习技术,而且具有很高的泛化能力,可以应用于广泛的数据集和不同的机器学习技术。
论文4:
The importance of interpreting machine learning models for blood glucose prediction in diabetes: an analysis using SHAP
糖尿病血糖预测中解释机器学习模型的重要性:使用SHAP的分析
方法
-
长短期记忆网络(LSTM):使用LSTM网络来预测血糖水平,这是一个适用于时间序列预测问题的强大模型。
-
生理和非生理LSTM模型:设计了两种LSTM模型,一种考虑了生理学解释(p-LSTM),另一种没有(np-LSTM)。
-
SHAP值分析:使用SHAP值来解释LSTM模型的输出,确定每个输入特征对模型预测的贡献。
-
决策支持系统(DSS):将LSTM模型集成到DSS中,以提供预防性治疗建议,如校正性胰岛素注射(CIB)。
创新点
-
模型解释的重要性:强调了在糖尿病管理中使用机器学习模型时,解释模型输出的重要性,特别是在模型被用于决策支持系统时。
-
生理学解释的LSTM模型:通过在LSTM模型中引入预处理层,使得模型能够学习胰岛素和碳水化合物对血糖水平变化的正确生理效应。
-
SHAP值在血糖预测中的应用:展示了SHAP值在解释血糖预测模型中的有效性,特别是在检测学习偏差和提高模型解释性方面。
-
决策支持系统的集成:通过将解释性工具(如SHAP)与LSTM模型结合,提高了DSS在提供校正性胰岛素注射建议方面的准确性和安全性。