Advertisement

机器学习模型的可解释性

阅读量:

对于模型可解释性的定义而言,我认为一个较为合理的观点是:其核心在于让模型通过人易理解的语言实现功能说明和结果展示。

这表现在哪些方面呢?有些学者认为这表现在哪些方面呢?这些学者指出这表现在哪些方面呢?也就是说我们能够深入理解其运行机制。我们通常称这类能够被深入解析和解读的形式为透明系统。而无法理解的部分则被视为‘黑箱’。接下来我们会自然地思考影响透明度的因素是什么?一些人将其视为算法的本质属性而非技术特性。另一些人则将其归因于算法的技术复杂性。

可解释性的动机

人类认为模型的可解释性至关重要,因为仅凭预测结果无法全面评估其性能.为了提升预测效果和可靠性,在训练过程中我们会专注于优化关键指标,并探索替代评估方法.然而这些单一指标往往忽略了在实际应用中更为复杂的背景.

可信性:一些研究指出,在提升模型的可信度方面,可解释性处于基础地位。然而,在定义上,则存在一定的主观性和灵活性——人们通常会将"可信度"主观地理解为一种某种程度上的舒适感或满足感。在这种情况下,默认认为一个能够被很好地理解和解释的模型会令人感到更加舒适和安心;即使它并非我们主要追求的对象。或者换句话说,在面对训练数据和目标函数不一致时,“信任度”可能反映了模型在实际应用目标方面表现出的良好性能信心。

因果关系 :虽然仅对监督学习模型被训练(就其优化器而言)用于建立关联,但我们仍可利用这些工具推导出属性并形成关于现实世界可能情况的假说。比如,在简单回归分析中发现,在使用沙利度胺的情况下会伴随出生缺陷,并且吸烟与肺癌之间存在显著联系。

可转移性

信息性

可解释性模型的性质

现在我们探讨为实现或包含可解释性模型应具备何种特性此特性主要可分为两大类第一类与模型的透明度相关即它如何运作第二类涉及事后解释功能即它能提供更多什么样的信息

透明度

非正式地说,在某种程度上来说,透明度与其相对方(如不可见性或黑盒子)相反而存在差异。从机械的角度来看机器学习的可解释性问题:模型在执行什么任务?接下来我们将探讨以下三种不同的透明度形式:整体模型的透明度、各组件(参数和决策节点)的具体透明度以及算法层面的透明度。

  • 可模拟性:从严格的逻辑角度来看,在人类能够将输入数据与模型参数结合在一起,并在合理时间内完成所有预测所需计算的情况下,则可称该模型为透明的。这一特性与算法的低复杂度直接相关。例如,在线性模型中能够直观解释的是20个参数的运行机制,但面对数千个参数时则难以实现类似理解。
  • 可分解性:第二个较为宽松的透明性概念在于模型各组成部分(包括输入、参数和计算过程)均可被直接解读。如决策树中的各个节点可能对应于自然语言描述。类似地,在线性模型中各个参数的意义可能体现为各特征与标签之间的关联程度。
  • 算法透明度:透明性的最终层次可能适用于算法层面本身。在线性模型领域我们已深入理解其误差曲面特性,并可通过理论证明保证即使面对以前未见的数据集,在训练过程中也能收敛至唯一解。然而在当前深度学习方法领域尚不具备此类高级算法透明度特征。尽管神经网络采用的启发式优化方法功能强大但目前尚不清楚其运行机制也无法保证具备潜在解决新问题的能力。

事后的可解释性(本人不是CV方向,大概说明一下概念)

基于独特可解性概念的事件解析依赖于无需明确阐述模形运行机制的具体步骤构成。这些解析包括自然语言描述、学习形式的表现以及模形可视化和示例说明(例如,在模形中该肿瘤显示出与同类肿瘤的高度相似特征)。就我们认为人类具备理解能力的程度而言,在当前条件下这种独特可解性具有适用性。就我们所知,在决策制定过程中人类与我们对其决策进行分析的能力可能存在显著差异。这种独特可解性优势在于它允许我们在不损失预测准确性的情况下实现后事模形解析。

  • 文字说明:人类常用口头方式表达决策依据。 类似地,在实际操作中我们可能设想训练一模型用于预测生成,并独立开发其后端逻辑(例如基于递归神经网络的语言模型)以辅助解析过程。
  • 可视化:展现该模型所掌握的知识结构的一种主要手段之一是采用可视化技术。
  • 通过示例进行解释: 在这一方法中我们可以借鉴类似案例分析这一过程具有一定的典型性作为参考范例。 例如,在医疗领域医生通常会根据临床案例来进行诊断推理工作;同样地,在数据挖掘领域若能分析系统识别相关场景则有助于深入理解数据分布特征。

在这篇文章中, 可被理解为我们将解释性的目的被广泛地定义为目标与环境之间的某种联系, 并通过缓解目标与环境之间的差距来实现这种联系。(在本文中, 我们识别出解释性的一种宽泛的目的, 即通过缓解目标与环境之间的差距来实现将关心的目标、情境以及为此而构建简化的模型目标与环境之间的联系。)

基于这一特征的存在性而言,在于其目的多样性。这些目的往往是多样的,并且有时会产生矛盾。声称具有可解释性的模型属性与事后技术在本质上呈现多样性与不一致性。鉴于此术语并非代表单一概念,因此研究人员不应就机器模型的绝对或相对可解释性做出公理的主张

全部评论 (0)

还没有任何评论哟~