首页 > 编程语言 >机器学习可解释性--LIME源码阅读

机器学习可解释性--LIME源码阅读

时间:2022-10-02 15:23:17浏览次数:88  
标签:函数 -- 样本 解释性 特征 源码 文本 LIME

首先,访问github上的LIME源码,https://github.com/marcotcr/lime ​ 将代码克隆至本地。我用的是pycharm打开进行阅读。下载下来后使用 pip install . ,别用pip install lime,使用后面的就不会使用源码中的Lime,阅读源码使用printf大法就会失效了。 可以看一下readme文档中提到的一个最简单的tutorial,以它为切入点开始源码的阅读。 https://github.com/marcotcr/lime/blob/master/doc/notebooks/Lime%20-%20basic%20usage%2C%20two%20class%20case.ipynb 这篇tutorial notebook的前半部分是在调用sklearn中的random forest进行文本分类。是一个二分类。   接下来,就要用到LIME模型对随机森林进行解释了 首先,使用sklearn中的Pipeline,目的是为了能直接输入纯文本就能得到预测结果,相当于是对模型的封装

 

 

 

 

上面这几行代码就完成了对随机森林的解释 接下来,就需要对源码进行阅读了 ​ 首先来到LimeTextExplainer类中,我来说明一下各个参数的意义 kernel_width,就是论文中的计算权重的公式中的   kernel是一个函数,就是论文中的计算权重的这个Πx(z)函数,在源码中,给出了下面的公式,其中d就是一个距离向量,在LIME中,会通过随机的方式在原始样本点周围生成许多的新样本点,这个d向量的形式如下: [原始样本点与原始样本点距离,第一个随机样本点与原始样本点的距离,第二个随机样本点与原始样本点的距离,第三个......],依次类推。 不过可以看到,源码中的公式好像比论文中多了一个开根号的操作。我没有找到这么做的原因,留着待日后探究。 ​ verbose用来控制输出的详细程度,true就会输出一些相关信息,false就不会输出 class_names:类别标签的名字,用来可视化用的 feature_selection:这是用来指示使用哪种特征选择方法的变量。特征选择指的是在LIME中,对于一个纯文本,会将它变成一个全1的向量,每一个1代表句子中的一个单词,如果这个文本特别长的话,那么特征的维数可能会特别多。而我们要做的是可解释性,要计算特征的重要程度,特征数量太多人看不过来(论文中就这么说的),所以要选几个代表性的特征,将他们的重要程度算出来就行了。具体的方法在文章之后继续将。 split_expression:切分纯文本的函数,用来对文本进行处理的。这里的'rW+'是一个正则表达式 bow:设置为true,表示采用词袋模型,将不同位置上的相同的词语视为同一个,设置为false,表示将不同位置上的相同的词语设为不同的。 mask_string:如果bow为true,没有作用,如果bow为false,会用来mask掉那些应该被删除的样本中的词。 random_state:一个整数或者numpy,用来生成随机数的东西。 char_level:是否要在字符级别上对文本进行处理。 接下来,我们看这个类当中的explain_instance函数 ​ 同样,先来理清这个函数的参数 text_instance就是纯文本,输入的数据 classifier_fn:就是我们要解释的模型,一个函数,输入纯文本数据,输出预测概率。 labels:在分类模型中,有多个类别,LIME的解释是针对每一类进行解释,这里就可以写要解释哪些类 top_labels:如果不是None,忽视传入的labels,去解释k个预测概率最大的标签,k就是这个top_labels num_features:前面说过,输入的纯文本可能会由于过长导致特征数量巨大,这里指定最大的特征数量 num_samples:Lime会根据原样本随机生成新样本,这里就是指定新生成的随机样本数(包含了原样本) distance_metric:距离评估方法,用来计算上面提到的距离向量的。 model_regressor:指定用来解释的模型,代码中默认使用岭回归 接下来,探究这个函数里面干了什么  

 

 

第一步构造了一个IndexedString类,这个类是用来处理纯文本的,可以类比nlp中常用的数据预处理。会生成word2idx,idx2word表。 第二步构造一个TextDomainMapper类,这个类用来后处理的,包括将id转换成word,或者可视化 接下来这个函数用来根据原样本生成随机扰动生成的数据,所有数据通过原模型生成的预测概率,以及距离向量。

 

 其中,invsered_data就是将输入的文本经过处理后所得到的词汇表的大小

接下来,看一下__data_labels_distances函数

 

 

这个函数就是通过随机数的方法来确定要把原始样本中的哪些词抹掉,在inverse_removing函数里面会进行对原始样本的处理操作。 接下来回到explain_instance函数,继续阅读剩下的代码

 

 

注意两行 第一个是生成了一个Explanation类,这个类是用来输出解释结果以及可视化用的 第二个是self.base.explain_instance_with_data这个函数,这个函数就开始进行解释操作了 接下来,看一下这个explain_instance_with_data函数

 

 

feature_selection函数就是之前说过的会对特征进行选择,比如说从1000个特征中选出6个,那怎么选呢?代码中提供了5种方法 第一种:forward_selection方法

 

 

维护一个已经选出的特征列表,遍历所有特征,将未加入特征列表的特征加入,用岭回归进行训练,在所有未加入特征列表的特征中,选择一个加入了以后进行训练会使得模型正确值达到最大的特征。如此循环往复,直到收集到需要的特征数。 第二种方法:highest_weights 用岭回归训练模型,选择权重最大的K个特征

 

 这里我将源码简化了一下,只保留简单的部分方便看到核心

第三种方法,不选择,拿全部特征训练 第四种方法,auto,指定的num_features<=6,用forward_selection,当num_features>6,用highest_weights 第五种方法:lasso_path法,没了解,直接略过 将特征选出来后,就是利用这些特征,使用岭回归,对数据进行训练,来近似原始模型,得到的系数权重就是最后的解释。 阅读源码是对读论文的补充,读论文读的云里雾里,不妨来看一下它的源码。

标签:函数,--,样本,解释性,特征,源码,文本,LIME
From: https://www.cnblogs.com/lxah/p/16748811.html

相关文章

  • python识别ico hash值
    用python识别icohash值,通过shodan搜索icohash值的网站,网上较为多流行的是用python2写的,但考虑到现在都是python3,这个脚本也跑不起来,所以自己重写了一个python3版本 需......
  • (问题)idea+gradle+jeesite+html 在开发调试中修改html文件后,出现更新失败,要重启才能生
    使用IDEA开发调试Jeesite,修改了含有beetl脚本的HTML文件后,使用Build输出资源文件出现以下错误。Executionfailedfortask':processResources'.Failedtocleanupst......
  • 初始接口
    一、接口测试与UI测试的区别:UI测试的原理为:1、进行元素定位2、模拟手工操作3、输入测试数据4、获取输出结果(有界面的)模拟手工操作-->获取界面输出结果接口测试的原......
  • 多态
    多态关于对象和对象的引用的的理解:Demodemo=newDemo();这一条语句,其实包括了四个动作:1)右边的“newDemo”,是以Demo类为模板,在堆空间里创建一个Demo对象。2)末尾的(......
  • I/O图书管理系统(简单版,待完善)
    1importjava.io.*;2importjava.util.ArrayList;3importjava.util.List;4importjava.util.Scanner;56/**7*@ClassName:demo308*@......
  • Axiomatic Attribution for Deep Networks解读
    摘要这篇文章主要研究的是如何将模型的预测归因到模型的输入上这个问题。作者提出了两条归因方法应该满足的基本定理,敏感性(Sensitivity)和实现不变性(ImplementationIn......
  • 004.讲解三种XML实例化Bean的配置方式
    1.基于构造方法实例化对象    2.基于静态工厂实例化对象3.基于工厂实例方法实例化对象 ......
  • 题目集1~3的总结
    一、前言 题目集1主要是为了让我们熟悉java的一些基本操作,总体难度不大。题目集2相比题目集1难度难度略高,但目的仍是熟悉java的操作使用。题目集3的难度相比前两个有很......
  • LIME模型---"Why Should I Trust You?": Explaining the Predictions of Any Classifi
    文章核心思想速读:提出了一个LIME解释技术能够对任何分类器做出的预测进行解释。L指LOCAL,意思是模型是针对局部某个样本的解释,而不是所有样本I指:INTERPRETABLE,可......
  • 123
    \(\sum\limits^N\sum\limits^N[gcd(X,Y)=1]\cdot\left[\max\left(\sum\limits^X\sum\limits^Y[gcd(x,y)=1]\cdotx,\sum\limits^X\sum\limits^Y[gcd(x,y)=1]\cdot......