翻译(笔记):可解释性推荐系统综述Explainable Recommendation: A Survey and New Perspectives

时间:2024-03-15 12:59:54

本文是对“Explainable Recommendation: A Survey and New Perspectives ”的一篇学习记录和关键内容翻译,如有不对的地方,请批评指正,谢谢!

这篇文章主要包括以下几个部分:

目录

1 introduction

1.1 explainable recommendation

 1.2 a historical overview

1.3 classification of the methods

2 different forms of expanations

 2.1 user-based and item-based expanations

2.2 Content-based Explanation

2.3 textual explanations


1.introduction
2.different forms explanations:多个形式来解释推荐系统的推荐结果
3.expplainable recommendation model:可解释推荐模型
4.evaluation of explainable recommendation:评价指标
5.explainable  recommendation in different applications:应用
6:open directions and new perspectives:当前研究趋势,方向
7.conclusions


1 introduction


1.1 explainable recommendation


这一部分是对可解释推荐的定义,重点关注推荐系统研究领域的可解释性推荐,对个性化推荐研究工作进行分类。特别的,多数的推荐系统研究任务可以被描述围殴5个W问题

  when\ where\  who\  what\  why

这一部分读者可以对可解释性推荐系统有一个清晰的理解,同时对整个推荐系统的研究也有一个概览了解,明白为什么可解释性推荐在推荐系统研究领域的重要性。


 1.2 a historical overview


这一部分将对前人的研究做一个综述概览。虽然说“可解释性推荐”在2014年被提出来的,但是它的概念可以追溯到很早之前的个性化推荐研究中去。比如,Schafer 1999年提出的在推荐系统中要向用户解释所推荐产品的类别,如“您正在看的这个商品和您之前看过的产品相似”,这是基于物品的协同过滤核心思想。Herlocker在2000年时的研究:利用MovieLens数据集对协同过滤算法进行解释。
早期的个性化推荐多数是基于内容推荐或协同过滤(content-based recommendation or collaborative-filtering).基于内容的推荐通过对用户或者商品的属性信息进行建模,比如:价格,颜色,商品商标。因为物品的内容信息对于用户来说更容易理解,因此基于内容推荐时可以直接的向用户解释为什么要从众多的候选物品里面推荐这个物品给用户。最直接的方法:给用户解释所推荐的这个物品是他所感兴趣的。
2012年,Ferwerda对基于内容的推荐进行了一个全面详尽的研究。基于内容推荐,收集各个应用方面的内容信息是非常耗时的,2011年Ekstrand 提出协同过滤方法,通过群体的智慧来克服这个困难。最早期的CF是基于用户的,2001年Sarwar提出基于物品的CF,Linden在2003年时将Item-CF应用到了亚马逊商品推荐上。对于用户来说,基于item-CF和user-CF预测评分比较难理解,但是可以从哲学方面来理解。比如,基于user-CF的推荐,可以解释为“推荐的是和您相似的用户喜欢的物品”,基于item-CF可以解释为“推荐的是和您之前感兴趣的物品相似的物品”,虽然协同过滤对推荐系统的准确率提升有很大的提高,但是对与很多基于内容的推荐的算法解释性不够直观。

2008年Koren提出了 LFM隐语义模型,包括基于CF的矩阵分解方法使得推荐系统在评分预测上取得了成功,但是也有不足的地方,LFM预测出的结果很难理解为什么这个物品要比其他的物品要更好,即推荐的可解释性不好,用户理解不到为什么该物品预测的评分高,所以就推荐这个物品?

为了让个性化推荐能够直观的可理解,研究者门转向研究可解释性的推荐模型,这个模型不仅仅要进行推荐列表的生成,还需要对推荐列表进行解释的工作。如2013年Leskovec提出的LDA(latent dirichlet allocation)隐狄利克雷分配模型,一种文档主题生成模型,2014年zhang正式的定义了“可解释性推荐”,通过将潜在维度与可解释性推荐的显式产品特征进行对齐,提出了显式因子模型EFM(explicit factor model)。值得一提的是近几年深度学习对个性化推荐的性能有所提升,但是由于深度模型的黑盒特性,使得推荐模型的可解释性有一定困难。

从更广泛的意义上来说,近年来,在Greater-AI研究领域的研究者们也意识到可解释AI ExpainableAI的重要性,在深度学习,计算机视觉,自动驾驶,自然语言处理等任务中都需要解决Expainable AI这个task。推荐系统作为AI研究的一个重要的分支,需要解决各种推荐系统的可解释性任务,为开发和研究新的可解释机器学习算法和理论提供了合适的背景。


1.3 classification of the methods

本文提供了一个现有可解释推荐方法的分类范式,这有助于更好地理解可解释推荐研究的最新进展。将现有的可解释性推荐方法分为两个维度:第一:生成的解释的类型(type of generated explanations);第二,生成解释的模型或算法,可以大致分为矩阵分解(matrix factorization),话题模型(topic model),图模型(graph-based),深度学习(deep learning),知识图谱(knoledge-graph),关联规则(association rules),自组织模型(post-hoc model)。基于上面分的两个维度,本文通过第2,3章分别详细的阐述。比如,文本解释,视觉解释

2014 zhang EFM textual explanation
2017 Seo 基于CNN的可解释性推荐 textual expanations
2018 Chen 基于深度模型的可解释推荐 visual expanations

关于推荐模型的可解释性和效率性能如何达到平衡将在后面的章节详细阐述。


2 different forms of expanations

可以用多个形式来进行推荐结果的解释:文本,主题词云,图片内容加高亮,社交网络关系,图表等。

这一部分将总结以下对推荐结果的解释采用不同的展现形式的各种方法,下图来自原文,图片左边部分是用户的评分,评语,右边部分是不同形式的推荐解释。

翻译(笔记):可解释性推荐系统综述Explainable Recommendation: A Survey and New Perspectives

 2.1 user-based and item-based expanations

从协同过滤方法开始讲起,基于user-cf和item-cf的解释通常是通过用户的显性反馈或隐性反馈体现的。

在基于用户的协同过滤中,这样生成解释:让用户知道他的所打过的评分和某一部分人相似,而这一部分人对当前系统的推荐列表的物品的评分都很好。从图片中理解

翻译(笔记):可解释性推荐系统综述Explainable Recommendation: A Survey and New Perspectives

在推荐列表的物品附上上图类似的统计图,(a)图可以表明,这条物件物品在和你有相似打分行为的用户集合的打分情况,也就是说你的25个相似用户中,有23个人都觉的这个电影还可以,那给你推荐的化,你对这部电影的评价可能也会比较可以的。 

在基于物品的协同过滤中,这样生成解释:让用户知道所推荐的物品和他之前所喜爱的物品具有相似性。基于物品的可解释性对用户来说能够更直观的理解,基于用户的可解释性可能相似用户和目标用户没有啥联系,不了解这个提供可解释性的用户们。下图展示了基于用户的协同过滤和基于物品的协同过滤的特性。

翻译(笔记):可解释性推荐系统综述Explainable Recommendation: A Survey and New Perspectives

 

根据用户的历史购买信息或动作信息来推荐可能会触犯人家的隐私问题,所以一个新的方式提出来了,基于用户的社交关系进行可解释性推荐。

2.2 Content-based Explanation

基于内容的推荐,将用户的喜好和物品的内容特征进行匹配推荐,具有直观的可解释性。

基于内容的推荐可以应用到各个应用场景中,比如,电影推荐,根据电影的流派,演员,导演等和用户的喜好进行匹配;书籍推荐,图书的类型,价格,作者等同用户的喜爱进行匹配。基于内容的可解释性的一个公共范例:给用户推荐物品,这些物品的特征属性和他们兴趣领域匹配。

Vig 2009年提出给物品内推特征进行打标签,利用标签进行推荐和解释推荐结果。

物品的内容特征可以更直接的让用户理解为啥推荐该物品。用户统计信息描述用户的内容(通过对用户的年龄,性别,地区进行统计),利用户统计内容也可以用来生成基于内容的解释,zhao[2014,2016]在社交媒体的推荐中就采用了这个方法。

2.3 textual explanations

用户产生的很多内容都可以被web搜集,比如在电商网站的评论信息,社交网络里面的post,转发信息等,这些信息对于刻画用户的特征非常重要,可以根据这些信息设计推荐解释,使得推荐的结果更具有说服力。很多模型通过文本信息进行解释为啥推荐该物品。

利用文本信息进行推荐解释可以分为两个层面:一个是特征层面(对推荐结果的情感倾向 possible entiments),一个是句子层面。

基于特征层面和内容推荐相似,只不过特征不能直接从内容中获得,需要提取或学习才能获得特征,即将特征提取或学习作为推荐系统模型的一部分.2014年zhang提出并开源了一个短语级的情感分析工具 Sentires,从大规模的文本评论中提取产品特性和用户情感,可以从产品的文本评论中提取“特征-观点-情感”三联词。该工具包具有检测不同特征词的意见词上下文情绪的能力,例如,虽然”噪音“搭配“高”通常代表“负面情绪”,但当“质量”搭配“高”时,它反而显示“积极的情绪”。zhang在2014,2015提出了EFM显式因子模型用于可解释性推荐,利用特征-观点的词对的词云模型进行解释。

基于句子层面的方法:解释是完整的,语义连贯的句子。句子可以通过模板生成(template),也可以利用自然语言处理技术生成。(LSTM,GRU)

 2.4 visual expanations

为了利用视觉图像的直观性,最近出现了利用产品图像进行可解释推荐的新尝试.对图片进行高亮处理。

2.5 social expanations

对于基于用户进行可解释推荐存在的问题:用户的信任问题和隐私问题-提出了利用社交网络进行可解释性推荐。