Advertisement

第一篇 可解释AI The Building Blocks of Interpretable AI

阅读量:

作者:禅与计算机程序设计艺术

1.简介

在当今社会环境中

2.基本概念

Interpretable AI (可解码人工智能) 是一种通过人类获得合理理解的技术。
简单而言, 可解码人工智能是一种为决策者提供足够的信息以支持其做出适当决定并清晰阐述预测结果的技术。
此外, 可解码人工智能必须具备以下关键特性:

  • 具备对决策过程进行推断的能力
  • 提供了解释
  • 能够处理复杂任务
  • 基于专业知识具有深入理解能力

根据应用场景的不同,可解释AI分为三个不同的子领域,分别是:

  • Interpretable Machine Learning Models: 广泛应用于医疗诊断、金融风险管理以及公共政策制定等多个关键领域。
  • Causal Discovery Methods: 通过对因果关系进行系统性研究来揭示潜在的影响机制。例如,在商业竞争中应用可解释AI技术深入剖析竞争对手的行为模式及其驱动因素。
  • Comparative Analysis: 通过系统性地对比分析不同条件下的模型预测结果来识别差异根源。例如,在市场分析中运用可解释AI工具比较两个预测模型在销售预测上的异同点以挖掘共同影响要素。

总的来说

构建具备全面功能与高度解译能力

随着监督学习、强化 learning 等新型 machine learning 方法与 compute resources 的快速发展推进

这一领域的突破愈发关键

通过深入解析不同层次的人工智能系统架构与运行机制

  1. 如何定义可解释的人工智能?
  2. 探讨当前研究的主要方向以及其发展轨迹。
  3. 构建模型解释性的三个关键步骤。
  4. 基于机器学习模型的知识表示机制研究。
  5. 基于知识表示的方法在哪些领域中得到广泛应用。

下面我们将逐一详细介绍这几方面。

3.什么是可解释AI?

定义

可解释人工智能技术源于1997年,在IBM开展的一个名为"Explainable Decision Making"的具体项目中首次提出。该研究项目旨在开发一套能够生成具有解释性的决策信息系统的方案。随后于1999年正式确立了这一技术方向作为独立的研究领域。如今国际上对于可解释人工智能的理解已非常多元化。例如,在2016年的著作中作者指出:可解释的人工智能是一种具备输入驱动规则导向启发式规则或学习算法支撑并能对自身执行过程中的每一个决策提供合理真实说明的计算机系统。

相关研究领域

当前可解释人工智能领域研究呈现蓬勃发展态势

分类

由于当前关于可解释AI的研究仍处于初级阶段,并且现有不同种类的可解释AI仍存在诸多相似之处。由此可见,在此我们计划介绍当前主流的可解释AI分类方法。

按任务类型划分

基于可解释AI生成模型对应的任务类型分析,可以将其划分为三类:决策树、线性回归和神经网络.如图所示.

按训练方式划分

根据训练方式可以将可解释AI分为两类:黑盒模型和灰盒模型。

黑盒模型
基于名称的概念仅揭示其功能而不展示内部机制。根据形式分类为决策树、逻辑回归和支持向量机等技术。按类型区分后的方法将输入数据映射到特定的结果类别上,并通过训练过程优化参数以提高准确性与鲁棒性能力。示例包括:

  • 给定一张图片
  • 判断是否存在猫这一特征

灰盒模型
灰盒模型即是指结构完全暴露给外界的数学模式。这种模式不仅能够接收原始输入数据,并且还能生成预测结果。基于其形式特征的不同,在实际应用中这些模式通常被划分为以下几类:神经网络、决策树以及随机森林等技术体系。在具体应用场景中,则可依需求选择适合的方法进行操作:例如,在面对一张手写数字图片时,则可通过相应的算法识别出属于哪一个类别;同样地,在处理一张图像时,则能判断其中包含哪些物品类型。

发展历史

可解释AI的发展历经20余年。已取得了一定的研究成果。然而,在深入发展的过程中仍有许多方面需要完善与改进。尤其是针对复杂程度更高的模型。截至2020年,在线可解释AI的研究领域仍十分广泛。国内与国际学者正致力于探索与应用新型可解释AI技术,并共同致力于构建具有完整功能及高度透明度的机器学习模型的方法。

4.最基础的可解释AI算法

LIME方法

LIME方案是2016年创构的一种易解性机器学习方案。它的核心理念在于通过创建可解析的数据子群集来辅助模型理解其决策逻辑。该方案由三个关键模块构成:局部代理模型、全局代理模型以及解题推断机制。在具体实施时,默认采用基于K-NN的方法构建特征增强数据子集。其中局部表征手段采用简单分类器或回归器作为基础工具;而全局表征手段则基于集成学习框架整合所有样本信息;最后阶段的解题推断机制负责将预测结果转化为具象化的特征解读,并赋予相应的影响权重值

步骤

LIME方法的具体流程如下:

  1. Local Surrogate Model:搭建局部替代模型旨在将输入实例映射至可解释空间。一般而言,局部替代模型采用简单分类器或回归器作为基础架构,在训练后直接用于预测任务。
  2. Global Surrogate Model:构建全局替代模型的目标是整合所有样本的信息并形成统一决策机制。该过程可采用单一数学表达式(如线性回归)实现统一判断,并通过集成多个子模型(例如随机森林)增强泛化能力。
  3. Explanation Generation Method论:提出一种系统框架用于解析黑箱决策过程的关键因素及其重要程度。该方法通过分析损失函数对各变量导数的最大方向来识别影响程度最高的变量。

KNN特征增强

一般情况下,K-近邻特征增强方法在生成特征增强数据子集方面的效果显著优于其他主流算法。该方法的核心思想在于:对于预测性能表现欠佳的数据实例,在保证不丢失原有信息的前提下对其特征进行重构处理。具体而言,在预测结果较差的数据样本中寻找与其最相似的K个邻居实例作为参考对象,并通过计算这些邻居实例的相关属性值(或置信度水平)来推断出该数据样本可能具有的属性信息。随后将这些重构得到的新属性值用于构建新的数据子集。这种处理方式能够有效保留原始数据中难以捕捉到的关键信息并同时消除原有数据中的噪声干扰

梯度方法

如果使用梯度方法生成解释,需要对损失函数进行求导。具体的方法是:

  1. 预测结果被损失函数视为其自变量。
  2. 每个特征的值被视为损失函数的结果。
  3. 通过梯度下降法找到最小值。
  4. 提供对模型行为和预测依据的结果说明。

其它局部方法

LIME方法的局部表征模型,目前主要有两种方法:

  1. 朴素贝叶斯:基于高斯分布构建每个特征的建模过程,并通过计算概率密度函数来进行分类。
  2. 线性回归:采用简单线性模型来描述变量间的依存关系,并通过最小二乘法求解参数以实现预测。

5.模型解释的三个步骤

当我们对机器学习模型进行解释时,往往要经历三个步骤:

  1. 提取实例:第一步是提取待分析的具体案例。
  2. 选择模型:第二步是选择一个经过训练好的预设分类器。
  3. 输出结果:第三步是利用该分类器输出其对特定样本的判别结果。
  4. 解释过程:第四步是通过解析性技术输出具体的说明内容。
  5. 分析结果:第五步是基于分类器输出结果进行详细分析研究。
  6. 总结影响因素:最后一步是总结该样本在各个特征维度上的主要影响因素。

1.获取实例

此步骤涉及准备待解释的数据实例。这一过程通常较为简单,并主要涉及准备好输入的特征向量。若模型主要应用于图像识别或文本分析等场景,则需相应准备样本数据集。同时,在训练过程中适当加入噪声处理以提升模型的鲁棒性有助于提高解释结果的准确性。

2.获取模型

此步骤要求导入一个已经经过预先训练的机器学习模型。因为它们通常与具体的应用场景脱节,所以必须提供相应的文件路径以供使用。

3.生成解释

在此步骤中使用模型解释库为模型提供具体解释,并生成输入实例的具体解释。其主要功能体现在以下几个方面:

  1. 特征权重:体现每个特征的重要性程度。
  2. 实例定位:标记模型对实例区域位置的认知情况。
  3. 局部采样:创建样本空间中的具体样本用于解析模型预测依据。
  4. 概念图谱:构建数据特征间的关联网络以阐明模型运行机制。
  5. 决策路径:构建从输入实例到预测结果的作用关系网络。

在所列举的五个功能中, 特征权重与实例定位不仅起到基础作用而且是最为直观易懂的部分. 相比之下, 在某些特定方面如局部采样, 概念图谱以及决策路径等则更为深入, 并能更接近地反映模型内部的工作机制. 此外, 在众多功能中还有一些较为冷门或不为人知的功能类别包括但不仅限于错误分析与样本离群分析等. 不管选择何种功能组合, 在模型出现错误时均能提供有助于我们更好地理解和解释其预测行为的信息.

6.使用解释性AI的典型应用场景

医疗诊断

  1. 缺乏可解释的模型

缺乏直观解释的医疗诊断模型较多。这些模型未能为患者与医生提供清晰的诊断结果解读。它们通常采用白箱架构,在一定程度上限制了人们对其工作原理的理解能力。尽管部分传统机器学习方法已能满足医疗需求,但其性能仍有待提高。

  1. 缺乏有效的医疗资源

人类自身拥有丰富的医疗资源...这些医疗资源能够显著地推动...但现有的技术通常依赖大量标注的数据...这也使其难以实现全球化部署...此外...缺乏专业医生、病人和医院等医疗资源等关键要素的存在同样会对诊断效率产生不利影响。

  1. 高资源消耗

为了提高医疗诊断的样本量及模型容量,往往需要耗费大量计算与医疗资源。在新冠肺炎疫情加剧的情况下,医疗机构加大了resource投入,并努力提升服务质量。然而,在resource投入过高时,则可能导致诊断速度与准确性等指标的下降。

  1. 可穿戴设备

随着人们生活水平的提升,医疗保健行业正经历着技术变革。人工智能和机器学习在医疗诊断领域中的应用已经带来了巨大的变革。利用智能穿戴设备(患者)能够获得准确且随时可靠的诊断结果。

金融风险评估

  1. 缺乏可解释的模型

金融风险评估领域仍面临可解释性挑战,在现有大多数情况下依赖透明结构进行建模会导致参数难以充分解释。此外,在动态环境下表现出有限适应能力限制了其精确预测能力。

  1. 数据匮乏

金融风险评估模型依赖于高质量、完整且可靠的金融交易数据才能实现较为准确的预测效果。现有金融数据通常以交易记录的形式存在;由于这些数据往往缺乏完整性或质量等问题,在实际应用中需要经过人工筛选和整合处理

  1. 时效性问题

金融风险评估模型必须迅速反应市场变化,并定期调整模型参数。
然而,在实际操作中完成这一过程往往需要耗费大量时间

  1. 资源消耗

金融风险评估模型通常不仅需要充足的算力资源、存储空间还涉及丰富的金融数据. 这些特性使得构建与运营金融风险评估模型的过程具有较高的复杂度.

公共政策

  1. 可解释性低

传统上而言,公共政策建议多依赖于个人直觉与过往经验形成的结论,并且缺乏系统化的理论指导而难以得出可靠的公共政策方案。

  1. 缺乏科学依据

由于缺少科学依据与数据驱动型的公共政策制定过程,在实际操作中形成的政策建议往往会出现偏差现象;此外,在公共政策制定过程中所采用的技术手段也往往带有一定的局限性

  1. 主观性和解释困难

因为具有主观性和观察性的特征,在实践层面形成的公共政策建议往往带有不确定性,并且难以通过证伪或验证来检验其有效性。同时,在分析过程中由于无法运用经济学上的严格逻辑推导方法,并且容易受到主观因素的干扰而导致结论不够客观

  1. 缺乏持续改进的能力

公共政策的制定受单一领域专家判断的限制,并难以形成持续改进的能力。基于其制定政策必然性和时效性的要求,在未来对其进行修改时通常只能通过多方博弈的形式来实现。

全部评论 (0)

还没有任何评论哟~