KDD 2020 | 缓解异质信息网络中冷启动问题 so easy?来看看 MetaHIN 模型
浏览量: 718
时间: 2020-07-29 05:48
关键词: KDD,信息过载,协同适应,AI顶会,作者带你读论文
题目:Meta-learning on Heterogeneous Information Networks for Cold-start Recommendation
作者:陆元福(北京邮电大学,腾讯微信搜索应用部)、方元(新加坡管理大学)、石川(北京邮电大学)
会议:In Proceedings of the 26nd ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD 2020)
背景
推荐系统旨在预测用户对物品的偏好,从而向用户提供其感兴趣的商品,其为用户解决了信息过载问题。但是,新用户或新商品的交互数据往往是非常稀疏的,即导致冷启动问题,冷启动推荐是当前一个非常有挑战的研究问题。
大部分现有工作从数据层面尝试缓解冷启动问题,例如融合额外信息作为用户或商品的特征,或者利用异质信息网络来捕获结构和语义信息。在模型层面,元学习方法为缓解冷启动问题提供了一些新思路。但已有方法通常直接将元学习框架(如MAML)用于冷启动问题,而忽略了推荐中的异质图结构和语义信息。
基于此,我们提出MetaHIN模型,以缓解异质信息网络中的冷启动问题。MetaHIN在模型层面探索了元学习的能力,同时在数据层面研究了异质信息网络的表达能力。在MetaHIN中,我们提出使用多方面的语义上下文来增强每个用户的任务,因此设计了一种新颖的语义增强型任务构建器,用于在元学习场景中捕获异质信息网络中的语义信息。进一步地,我们构建了一个协同适应元学习器该学习器,其既具有语义层面的适应性又具有任务层面的适应性。模型整体框架如下图所示:
语义增强型任务构建器
给定用户u,其对应的任务定义为,语义增强型支撑集定义为:
基础模型包括用于生成用户表示的上下文聚合函数,和用于预测评分的偏好预测函数。在上下文聚合中,用户的表示由其上下文聚合而来,即:
协同适应元学习器得到目标是学习一个先验知识,其可以利用少量的样本评分快速适应到一个新的用户学习任务上。如图2所示,每个任务由多方面的语义上下文增强。因此,先验知识应该不仅编码任务间共享的全局知识,还应该能够在同一任务内泛化到不同的语义上。为此,我们设计了协同适应元学习器,其包括语义级适应和任务级适应:
实验结果
本文在三个冷启动推荐场景和一个传统推荐场景下验证MetaHIN的有效性,进行模型分析和参数分析。在三个公开数据集上,实验结果如下表所示。可以看到,我们提出的MetaHIN在各个数据集上都有较好的表现。同时,我们还做了一些参数实验,具体结果可参考论文。相关论文及代码已经发布在实验室主页http://www.shichuan.org 及https://yuanfulu.github.io上,欢迎关注。
官网链接:https://www.kdd.org/kdd2020/
学术头条与你一起相约KDD2020!
往期回顾:
KDD2020 | 阿里、百度、腾讯、滴滴、华为、京东、联想 KDD2020公司论文大盘点
[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。