机器学习:可解释学习

可解释学习

在这里插入图片描述
在这里插入图片描述
神马汉斯,只有在有人看的时候能够答对。

为什么需要可解释机器学习

在这里插入图片描述

贷款,医疗需要给出理由,让人们相信该算法的预测结果。
在这里插入图片描述

可解释还是强模型

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
决策树是有比较好的解释性的。
在这里插入图片描述
在这里插入图片描述
随机森林作出的判断也无法明确指出是什么原因得到的答案。

可解释学习的目标

在这里插入图片描述
人需要一个理由,才会被说服去做什么事。
在这里插入图片描述

可解释机器学习

在这里插入图片描述
两大类,局部可解释,全局可解释

Local Explanation

在这里插入图片描述
移除某一部分导致发生大的判断改变,这一部分就是关键部分。
在这里插入图片描述
用黑色方块移动遮盖区域,再看算法是否能正确得到预测结果,如果不能,说明是重要部分,蓝色区域就是重要部分。
在这里插入图片描述
saliency map,白色区域说明值越大,表明像素值重要。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
结果是图片格式导致的这种准确率,而不是真的学到了相关特征判断。
在这里插入图片描述
这个是学错了,觉得左下角的文字是更重要,只要有文字就判断为马。
在这里插入图片描述
SmoothGrad:加噪音并平均下来的结果,比原来的结果好。

梯度色度的局限性
在这里插入图片描述

鼻子变长,越来越长也不会让人们觉得变得更像大象,只看偏微分的结果不足以告诉我们。

在这里插入图片描述
在这里插入图片描述
直接拿网络的输出可以明确的区分开来。
在这里插入图片描述
也可以看注意力部分的特征输出。
在这里插入图片描述
可以使用探针方式去查看想要看学习到的特征,要注意分类器的学习好坏,只有学习比较好的分类器能比较多表现出特征。

在这里插入图片描述
只保留了内容,而没有保留声音身份信息。
在这里插入图片描述
过滤掉女声男声,过滤掉杂音。


Global Explanation

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
filter检测的内容不一样,某个笔画
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
用小模型且可观察的模型去逼近复杂模型

猜你喜欢

转载自blog.csdn.net/uncle_ll/article/details/132524256