论文笔记:Explanation Mining: Post Hoc Interpretability of Latent Factor Models for Recommendation System

一、基本信息

论文题目:《Explanation Mining: Post Hoc Interpretability of Latent Factor Models for Recommendation System》

发表时间:KDD 2018

论文作者及单位:

Georgina Peake          Channel 4 Television, London, United Kingdom

Jun Wang                    University College London, London, United Kingdom

论文地址:https://dl.acm.org/citation.cfm?id=3220072

二、摘要

广泛使用机器学习算法来驱动决策,强调了确保此类模型的可解释性以在其输出中产生信任的关键重要性。最先进的推荐系统使用黑盒潜在因素模型,这些模型无法解释为什么要提出推荐,因为它们将决策过程抽象到了一个超出人类直接理解的高维潜在空间。我们提出了一种从潜在因素推荐系统中提取解释的新方法,通过训练矩阵因子分解黑盒模型输出的关联规则。利用关联规则的可解释结构,我们证明了推荐模型的预测精度可以保持,同时在一个独特的行业数据集上对黑盒模型进行高保真的解释。我们的方法降低了精度可解释性权衡,同时避免了牺牲灵活性或使用外部数据源的需要。我们也有助于解释能力评估这一定义不明确的问题。

三、论文主要内容与工作

机器学习中的一个基本权衡是精确性和可解释性。为产生非线性问题的最精确结果而演示的模型本质上是复杂和不透明的。例如,最先进的深度学习技术被认为是黑盒模型,因为它们复杂的隐藏层结构使其内部决策过程变得模糊。另一方面,决策规则被认为是一个可解释的模型,因为它们易于理解和解释,因为它们提供了决策的明确文本表示,以及它们的预测。然而,它们的简单性是以缺乏灵活性和潜在的高偏差为代价的,因为它们的决策基于简单的单变量分割(例如,如果有毛皮,那么哺乳动物和爬行动物),这通常不是一组变量之间真实关系的准确假设。
迄今为止,衡量机器学习研究成功与进步的关键指标是实现最高的预测性能。如今,随着机器学习系统作为推动决策的一种手段在整个行业中得到广泛采用,围绕着我们是否可以信任模型,使其具有逻辑性、非歧视性和处理虚假数据,人们提出了重要的问题。为了建立对模型的信任,用户需要了解模型为什么会做出预测,而不仅仅是预测的准确性。
因此,建立能够解释黑匣子模型决策过程的方法,同时保持强大的预测性能,对于机器学习社区来说是一项极具挑战性但又至关重要的研究议程,以确保我们能够公平、负责任地获得可用的重大利益。机器学习标签。
事后可解释性描述了一组方法,这些方法通过从模型的输出中提取解释来寻求在经过训练后解释黑盒模型。由于黑匣子模型本身没有任何变化,因此可以保持预测性能,但同时提高了可解释性,从而降低了可解释性权衡的准确性。
本文将一种新的事后可解释性方法应用于推荐系统的潜在因素模型,以此来探讨这些主题。我们证明了用可解释模型逼近黑盒模型可以保持推荐模型的高预测精度,同时通过提取可用于理解模型行为的解释来提高可解释性。

四、将来可以做的工作

1、通过使用更灵活的代理模型(如参考文献[33]中使用的贝叶斯网络)来生成解释,还可能提高保真度。

2、由于关联规则的计算复杂性随事务数和数据集中项目数的增加而增大,因此我们将前n个建议的大小限制为20个,并使用小型行业数据集。由于矩阵分解比简单邻域方法的优越性能在大型数据集中最为明显,因此将可扩展规则挖掘方法与我们的方法结合起来是值得的。

3、我们的方法生成格式的解释:“因为你看了X,我们推荐Y。”考虑到用户可能观看节目的多种原因,一个有希望的未来扩展将是将这种方法进行扩展,使得其具有可选择解释类型(原因)的功能。正如[28]所承认的,解释的灵活性是事后解释的一个关键好处,因为它允许复杂模型保持不变,同时使用不同解释水平的多种解释模型。然后,用户可以对解释类型进行个性化设置。

4、作为未来的潜在工作,我们有兴趣使用文本数据增强我们的模型,这与用于可解释的协同过滤的主题建模方法类似,这样可以通过理解与某个节目相关的主题,从而使其可解释为另一个节目建议。这一增强将进一步有助于促进其他解释,例如“由于您对主题X感兴趣,我们建议您选择Y”。

猜你喜欢

转载自blog.csdn.net/qq_35771020/article/details/87734311