理解高阶损失函数在深度学习可解释性方面的应用

理解高阶损失函数在深度学习可解释性方面的应用

(原论文名:Understanding Impacts of High-Order Loss Approximations and Featuresin Deep Learning Interpretation

作者:

Sahil Singla,

Eric Wallace,

Shi Feng,

Soheil Feizi

论文下载地址:https://arxiv.org/pdf/1902.00407.pdf

 

 

内容摘要:

当前神经网络的显着性图解释通常依赖于两个关键假设。

首先,他们使用损失函数的一阶近似,忽略了诸如损失曲率之类的高阶项。

其次,他们独立评估每个功能的重要性,而忽略了功能的相互依赖性。

这研究了放宽这两个假设的效果。

首先,我们描述了一个深ReLU网络的输入黑森矩阵的封闭式。 使用此方法,我们表明,对于具有多个类别的分类问题,如果预测具有较高的概率,则包括Hessian项对解释的影响很小。

我们通过证明这些条件使Hessian矩阵近似排在第一位并且其前导特征向量几乎与损耗梯度平行来证明了这一结果。 我们通过解释ImageNet分类器来对该理论进行经验验证。

其次,我们通过使用稀疏性正则项计算组特征的重要性来合并特征相互依赖性。我们使用L0-L1松弛技术以及最近的梯度下降来有效地计算组特征重要性值。

我们的经验结果表明,我们的方法极大地改善了深度学习的解释。


内容概括

文章中主要介绍了四个部分:

1)深度学习显著性解释的两大前提假设以及如何放松这两大假设的约束。                     

  梯度损失替代假设   (加入海塞项,二阶损失

  特征独立假设         (引入Group-Feature,添加依赖性解释) 

2)通过从公式推导和实际实验两方面证明:

  在类别较多的图片分类实验中,若预测概率接近1,则一二阶解释近似。

3)利用范数松弛技术和近端梯度下降法,更有效地计算组特征的重要性。

4)定性比较深度学习中的不同解释方法。

一、两大假设约束

1.约束内容

当前对神经网络显著性图的解释,主要依赖于两大假设:

-梯度损失替代假设-

采用损失函数的一阶近似,忽视了高阶项(如损失曲率)

通常假设在测试样本上的损失函数是线性的,于是利用梯度变化计算特征重要性

-特征独立假设-

独立评估每个特征的重要性,忽略了各特征之间的依赖关系

2.放松约束

-对于梯度损失替代假设-

保留海塞项,使用二阶的近似损失函数(一阶二阶重要性函数以及泰勒展开)

对于深层Relu网络及其交叉熵损失函数,使用封闭形式计算相关海塞项(多元函数二阶偏导的矩阵,描述局部函数曲率)

-对于特征独立假设-

定义了组特征的重要性函数,从而向解释中加入特征之间的依赖关系

CAFO :将基于一阶(梯度)信息的解释方法称为CAFO(上下文感知一阶)解释

CASO:基于二阶信息的方法称为CASO(上下文感知二阶)解释

利用无监督的方法调整示例集合大小,使解释能够感知上下文

采用范数松弛技术与近端梯度下降法

利用开源代码  进行对比实验

(代码网址: https://github.com/singlasahil14/CASO)  这个方法对算力要求不是很高

二、相关概念定义

1.-Group-Feature- (组特征)

以图像分类实验为例:

但是对于组特征 和 特征分组 的概念,可以多看看相关的论文。  

举个栗子,中医会诊时,参考多个病症特征来确定患者的情况,就是一种特征分组的应用。

后续会介绍ProtoPNet,这个可解释性级别达到了模型本身的深度学习方法,用于图像分类。它也应用到了特征分组相似的概念,学习了原型,利用“零件”学习模板。

2.-损失函数优化- 与-组特征重要性函数-

经验风险最小化  认为  符合的模型即最优模型(现实中 常用 最大似然估计)

3.-上下文感知一阶(CAFO)解释函数-

4.-将CAFO二阶泰勒展开-

5.-上下文感知二阶CASO)解释函数-

6.-Hessian的影响-

理论推导

类数/概率-海塞项相对误差 实验结果

不同置信度下一二阶显著图 实验结果

理论推导补充

(置信度-F范数)实验结果

范数是啥,有啥用?

平滑处理与最近梯度下降法

一阶-二阶-阈值法-实验结果

这里一个入为参量,n为稀疏率。

梯度算法总结

可解释有哪些方法?

平滑处理后的CASO/CAFO解释

论文里只给了CASO,那去掉黑森项的  不就是CAFO的嘛~  嘿嘿嘿

不同处理方法 实验结果(类似于阈值分割,做“事后解释”)


总结/展望 与 补充

(另  鲜美多汁的PPT 完整奉上:

https://download.csdn.net/download/qq_35155934/12758284

猜你喜欢

转载自blog.csdn.net/qq_35155934/article/details/108252016