胡亮教授相关成果介绍⑤:长尾推荐质量提升:同时建模“可信度”和“个性特征” Improving the Quality of Recommendations for Users and Items i
2026-04-15
8592
作者简介
胡亮,同济大学计算机科学与技术学院教授、博导,毕业于上海交通大学与悉尼科技大学,研究方向涵盖人工智能、推荐系统、机器学习与数据科学,入选上海海外高层次人才,获国家自然科学基金优秀青年科学基金项目(海外)支持。
一、研究背景
推荐系统中的用户和物品通常呈现明显的长尾分布:少数热门对象占据大部分交互数据,而大量长尾对象只拥有极少反馈。如果模型主要从热门物品中学习偏好,就会形成显著的流行度偏差。与此同时,长尾用户和长尾物品又更容易遭遇冷启动、数据稀疏以及刷分攻击。论文指出,真正高价值的推荐改进,往往并不发生在热门项目上,而是体现在长尾部分的发现能力和可靠性上。
二、论文信息
发表时间/来源 | ACM TOIS 2017 |
论文标题 | Improving the Quality of Recommendations for Users and Items in the Tail of Distribution |
作者 | Liang Hu, Longbing Cao, Jian Cao, Zhiping Gu, Guandong Xu, Jie Wang |
关键词 | 长尾推荐、异方差矩阵分解、可信度、个性偏好、抗刷分 |
三、核心发现
核心发现 论文提出 Recurrent Mutual Regularization Model(RMRM),其中包含两类异方差矩阵分解:C-HMF 用于建模反馈可信度,S-HMF 用于强调用户选择的个性特征。两者通过经验先验进行递归式互相正则,使模型既能学到长尾偏好的独特性,又能减少不可信数据带来的干扰。 |
图示:论文原文中的 RMRM 互正则化过程示意(Figure 2)
四、研究内容解读
1. 这项研究要回答什么问题?
这项研究要解决的,不只是“长尾样本少”,而是长尾推荐同时面临三类挑战:流行度偏差、冷启动以及刷分攻击。如果只强调长尾选择的重要性,模型可能更容易受到低质量数据影响;如果只强调可信度,又可能削弱长尾选择所包含的独特兴趣信号。
2. 研究团队发现了什么?
基于这一判断,作者将问题拆成两个目标。S-HMF 通过异方差建模,让更深长尾中的选择获得更高权重,从而强化“这些选择更能代表用户真实口味”的假设;C-HMF 则根据评论帮助度、用户声誉和信任关系等信息评估反馈质量,使模型更关注可信数据。
3. 他们是如何证明的?
更关键的是,论文没有把这两个目标彼此割裂,而是让 C-HMF 学到的参数作为 S-HMF 的经验先验,反过来 S-HMF 学到的个性化表示又作为 C-HMF 的先验。这种 recurrent mutual regularization 使得模型在少量数据下也能兼顾“可信度”和“个性特征”,并进一步通过高声誉专家的先验组合缓解冷启动问题。
五、关键机制与功能验证
实验部分从长尾用户、长尾物品、刷分攻击以及隐式反馈等多个角度验证了模型。结果显示,RMRM 在深尾区间的推荐性能优于传统 MF 与多种信任感知推荐方法,而且在遭遇刷分攻击时能保持更稳定的表现。也就是说,这篇论文并不是简单提高总体均值,而是把提升真正落在了最难、也最有业务价值的长尾区域。
六、总结与意义
这项工作的意义在于,它把长尾推荐问题提升为一个多目标学习问题:既要识别哪些交互更可信,也要识别哪些选择更能代表个体特性。这种思路为后续的稳健推荐、反作弊推荐以及长尾价值挖掘提供了很有代表性的建模框架。
DOI:10.1145/3052769