谈谈机器学习模型的可解释性
伴随着人工智能与机器学习技术的进步,在许多领域中我们正在 witnessed 着由这些技术主导的各种决策过程。然而,在将如此重大的决定交付给 machine 的时候, 我们的 confidence 是否足够?每当波音737型飞机无视飞行员的操作而 Choose to crash onto the ground, 当银行系统突然 reject your loan application without any explanation, 当自 动 化 军事识别系统误将武器对准无辜 civilians时;人类的心灵必定会产生无数疑问 'Why?'

机器学习算法被视为如上图所示的一个黑盒子模型,在该模型中输入层接收训练数据,并经过中间层构建了一个函数(这个函数也可被称作模型)。随后将新的数据输入到该模型中以生成预测结果。探讨模型可解释性的核心问题在于理解为何会产生这样的预测结果:具体是如何基于输入数据生成输出结论的?
可解释的模型
在机器学习的各种算法中,并非所有模型都易于解释性分析。如深度神经网络这类模型便具备很强的表现力和预测能力。然而由于其内部机制复杂且包含数以百万计的参数量使得深入解读其决策过程相对困难。尽管如此仍存在相当数量易于解释性的算法可供选择。
例如线性回归 :


由图中的公式可知,线性回归模型中目标变量Y与自变量X之间的关系被定义为...具体而言,在模型中每个自变量Xi的变化都会对因变量Y产生影响。每当自变量Xi增加一个单位时,Y的值将提升βi个单位。
线性回归简洁明了,并且能够确保获得最佳结果;然而并不是所有问题都完美地符合线性关系。
另外一个可解释的模型的例子是决策树 。

如图所示的决策树例子中, 决策树能够清晰地提供预测依据. 其工作原理极为简单, 从根节点出发, 通过分析所有相关的特征属性逐步分支, 最终在叶子节点确定预测结果.
决策树具备很强的能力去捕捉相互关联以及相互依存的关系特征之间的互动和依赖。
同样具有良好的可视化的特性。
然而,在线性关系处理方面存在明显的局限性,
由于其不够光滑且不稳定性较高,
微小的变化都可能导致整个决策树结构的重大调整。
在节点数量增多且层级结构复杂的情况下,
解析整个决策过程变得更加复杂。
其他一些可解型模型如逻辑回归、线性模型、朴素贝叶斯及K近邻。
模型无关的方法
现有的可解构模型类型数量有限,在这一前提下我们希望探索出一种普适性的解析方法能够适用于各类黑箱式的机器学习架构这也就要求我们寻求无需依赖特定模型的技术手段
Partial Dependence Plot ( PDP )
PDP用于表示一个模型中一个或者两个特征对于预测结果的影响。

如上所示的PDP图表展示了三个特征:温度、湿度与风速对骑行者出行人数的影响。需要注意的是:这里共有三个PDP模型,并且每个模型都假设各自特征独立。每个图表均基于其他变量保持恒定的情况下展示的趋势。
PDP图相当简单明了且易于理解,在生成过程中也较为简便。然而由于技术限制目前的PDP图最多只能捕捉两个特征如果维度超过三则难以用现有技术进行可视化表现同时独立性假设构成了该方法的主要缺陷。
Individual Conditional Expectation (ICE)
ICE揭示了每个样本实例在调整某一个特征值时预测结果的变化情况如何。

如上图所示,这个和PDP的图反映了一致的趋势,但是包含了所有的样本。
和PDP相提并论的是ICE在独立假设方面的局限以及其无法表示超过两个特征的能力缺失. 随着样本数量的增长, ICE模型所构建的关系图可能会变得相当拥挤.
特征交互 (feature interaction)

该特征交互图展示了多个变量之间的相互作用机制。例如一个模型包含两个特征变量那么该模型可表示为基底值加上单一第一个特征求和项、单一第二个特征求和项以及两两特征求和项。我们可以通过这一统计量即Friedman’s H-statistic来评估这些相互作用的效果。
利用H-statistic计算是很耗资源的,结果也不是很稳定。
特征重要性 Feature Importance
我们定义特征的重要性为:当单独更改某一个特征的数值时所引起预测误差的变化程度。具体而言,在观察到某一特定变量发生变动时所导致的结果变化程度能够反映该变量的重要性高低;反之,则表明该变量对结果的影响微乎其微。

上图是一个特征重要性的图示。
特征重要性揭示了这一概念的一个简洁明了的角度,在模型分析中具有重要的指导意义。该指标通过反映各特征之间的相互作用提供了深入的理解能力。值得注意的是,在计算这一指标时避免了重新训练模型的麻烦。为了准确评估其有效性生成这个指标的数据集必须包含真实结果。
Shapley Values
以下是对输入文本的改写

下图是一个Shapley Value的例子。

Shapley开发出了详尽的每个特征的解释。然而这种方案在高消耗计算资源的同时需要全部使用所有特征。
替代模型(Surrogate Model)
替代方案就是采用易于理解且简洁的模型对黑盒系统的输入与预测进行建模训练出一个解析性较高的替代物 通过这一方法解析复杂的黑盒系统
替代模型的训练过程如下:
指定一个数据集X(无论是否与训练集相同都无所谓)。
通过训练好的黑盒模型预测得到结果Y。
采用一种可解释性较强的模型,并提供具体示例如线性回归或决策树。
利用之前的数据集X以及预测的结果Y来构建可解释性较强的模型。
对所建立的可解释性较强的新旧两种方法进行性能评估比较两者的差异程度。
替代方案展现出高度灵活性,并且具有易于理解的特点;然而,在这种情况下(即对黑盒模型),其目的并非用于对数据进行分析或解释。
基于样本的解释
反事实解释 (Counterfactual)
反事实解释就像是说“如果X没有发生,Y也就不会发生”

反事实的解释在特征和预测结果中建立一个因果关系。如上图所示。
我们可以通过调整一个样本的某个性征,并观察预测结果的变化情况来研究模型特性。Google提供的What if 工具能够帮助我们评估模型对数据扰动的敏感性
我也很喜欢这本书:我也觉得这本著作《The Book of Why: The New Science of Cause and Effect》非常值得一看。

对抗样本 (Adversarial)
对抗样本被定义为,在经过一个样本的一个特征值所作的细微调整会导致整个系统产生错误预测的情形下,则被称为抗受 adversarial sample。抗受 adversarial sample 的目标是为了欺骗系统以达到目的的目的,在机器学习领域中,黑客通常利用这些抗受 adversarial sample 作为攻击手段。

原型和批评 (Prototypes and Criticisms)
在数据集中,一个原型可以被视为一个基本单位;它能够代表整个数据集中的其他所有数据点。特别地,在这种情况下,一个批评点指的是无法被一组原型有效地表示的数据实例。

有影响力的实例 (Influential Instances)
机器学习模型基于训练数据生成,在移除任何一个训练样本时通常会对模型性能产生显著影响;如果移除某一个特定样本对模型性能产生了巨大影响,则称该样本为具有影响力的数据点;通过分析具有影响力的数据点及其特性可以帮助我们更好地理解模型的行为机制。
总结
本文阐述了可解释机器学习的核心内涵及其应用途径,并旨在为朋友们提供帮助。
