所有文章 > 正文

KDD 2020 | 缓解异质信息网络中冷启动问题 so easy?来看看 MetaHIN 模型

作者: 陆元福

时间: 2020-08-03 14:23

题目:Meta-learning on Heterogeneous Information Networks for Cold-start Recommendation

作者:陆元福(北京邮电大学,腾讯微信搜索应用部)、方元(新加坡管理大学)、石川(北京邮电大学)

会议:In Proceedings of the 26nd ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD 2020)

背景

推荐系统旨在预测用户对物品的偏好,从而向用户提供其感兴趣的商品,其为用户解决了信息过载问题。但是,新用户或新商品的交互数据往往是非常稀疏的,即导致冷启动问题,冷启动推荐是当前一个非常有挑战的研究问题。

大部分现有工作从数据层面尝试缓解冷启动问题,例如融合额外信息作为用户或商品的特征,或者利用异质信息网络来捕获结构和语义信息。在模型层面,元学习方法为缓解冷启动问题提供了一些新思路。但已有方法通常直接将元学习框架(如MAML)用于冷启动问题,而忽略了推荐中的异质图结构和语义信息。

基于此,我们提出MetaHIN模型,以缓解异质信息网络中的冷启动问题。MetaHIN在模型层面探索了元学习的能力,同时在数据层面研究了异质信息网络的表达能力。在MetaHIN中,我们提出使用多方面的语义上下文来增强每个用户的任务,因此设计了一种新颖的语义增强型任务构建器,用于在元学习场景中捕获异质信息网络中的语义信息。进一步地,我们构建了一个协同适应元学习器该学习器,其既具有语义层面的适应性又具有任务层面的适应性。模型整体框架如下图所示:

1-7flgKWO44a.png

语义增强型任务构建器

给定用户u,其对应的任务定义为,语义增强型支撑集定义为:

2-iMSpgCdXJp.png

协同适应元学习器

基础模型

基础模型包括于生成用户表示的上下文聚合函数,和用于预测评分的偏好预测函数。在上下文聚合中,用户的表示由其上下文聚合而来,即:

7-K213LhKUdY.png

协同适应

协同适应元学习器得到目标是学习一个先验知识,其可以利用少量的样本评分快速适应到一个新的用户学习任务上。如图2所示,每个任务由多方面的语义上下文增强。因此,先验知识应该不仅编码任务间共享的全局知识,还应该能够在同一任务内泛化到不同的语义上。为此,我们设计了协同适应元学习器,其包括语义级适应和任务级适应:

4-jTs1XmA7nP.png

实验结果

本文在三个冷启动推荐场景和一个传统推荐场景下验证MetaHIN的有效性,进行模型分析和参数分析。在三个公开数据集上,实验结果如下表所示。可以看到,我们提出的MetaHIN在各个数据集上都有较好的表现。同时,我们还做了一些参数实验,具体结果可参考论文。相关论文及代码已经发布在实验室主页http://www.shichuan.org https://yuanfulu.github.io上,欢迎关注。

5-mgYQonYgU5.png

6-w54sChwRc9.png

官网链接:https://www.kdd.org/kdd2020/

学术头条与你一起相约KDD2020!

往期回顾:

你关心的这些CCF A类会议 AMiner都替你备好了!

ISSTA 2020 | 过去五年高引论文和获奖论文清单

KDD2020 | 阿里、百度、腾讯、滴滴、华为、京东、联想 KDD2020公司论文大盘点

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

推荐阅读 更多