【Anomaly Detection论文阅读记录】PNI:Image Anomaly Detection and Localization ...(ICCV-2023)-理论
PNI算法(ICCV-2023)
一**.**论文涉及的概念
1. one-hot编码(One-Hot Encoding):它常用于将离散的分类标签转换为机器学习模型可以处理的格式。具体来说,one-hot编码是将每个类别用一个二进制向量表示,该向量的长度等于类别的总数,比如图像分类问题中,区分猫、狗、鸟,那么每个标签就会是一个长度为3的向量,例如 [1, 0, 0] 代表猫,[0, 1, 0] 代表狗,[0, 0, 1] 代表鸟。每个类别对应的向量中只有一个位置是1,其他位置是0,表示该类别的存在。优点如下:
- one-hot编码通过将类别标签转化为数值向量,使得机器学习模型能够处理这些数据。
- one-hot编可以保证所有的类别都是独立,避免排序关系的假设,如果直接使用数字表示类别(例如,猫用0表示,狗用1表示),算法可能会错误地推断出类别之间有某种排序关系(例如,狗比猫大或更重要)。
- one-hot编码恰好满足多类分类任务中,每个类别都需要一个独立的表示。
2. 温度缩放(Temperature Scaling):是一种用于校准模型输出概率分布的后处理技术,主要用于提高模型的预测概率的可信度,使得模型的输出概率更接近于实际的标签概率。例如:
通常使用SoftMax函数来生成每个类的预测概率,模型可能对某个类别的预测过于确信,导致预测的概率分布不符合实际的分布。温度缩放的目标是通过缩放SoftMax函数的温度参数,来平滑模型的预测概率分布,从而提高模型输出的校准度,使得概率值更具可信度。
SoftMax函数用于将模型的输出(logits)转化为概率分布。假设模型输出的logits为z1,z2,…,zK,其中K是类别的总数。SoftMax函数定义如下。其中,P(y=i∣z)表示模型对类别i的预测概率,zi是类别i的logit值。

应用温度缩放时,引入一个温度参数T,将logits除以T来“缩放”SoftMax的输入,从而调整模型的输出概率。

温度缩放的效果
- 较高的温度 T>1T>1:当温度增大时,SoftMax的输出会更加平滑,类别间的概率差异会减小,模型对各个类别的预测不再过于确信。对于高温度的设置,模型更可能分配较为均匀的概率。
- 较低的温度 T<1T<1:当温度减小时,SoftMax输出的概率分布会更加尖锐,模型对某些类别的预测信心会增强,概率分布变得更加“极端”。
- 温度为 1:当温度为1时,温度缩放不改变SoftMax的输出,模型的输出保持原样。
二**. PNI****算法**
1. 综述
在训练时,使用ImageNet预训练模型φ将正常样本转换为特征图 Φi 。之后,利用贪婪子采样方法对聚合的补丁级特征进行子采样,生成嵌入核集Cemb和分布核集Cdist。存储核心集后,分别用MLP和直方图训练给定邻域和位置信息的正态特征分布。使用合成缺陷图像单独训练像素细化网络。在推理时,使用训练好的正态特征模型评估局部测试特征的异常分数。最后,结合输入图像进行细化,对异常图进行改进。

2. 细节
(1)预训练网络

(2)特征提取

(3)基于邻域**+**位置信息的特征分布建模

(4)像素细化部分

