所有文章 > 正文

KDD 2019 | 基于知识的个性化商品描述生成

作者: Qibin Chen

时间: 2019-08-20 16:22

过去的文本生成大多基于传统的基于RNN的Seq2Seq+Attention框架实现。这个模型最早用于机器翻译,后来逐步扩展到各大文本生成类的任务。 而当前机器翻译领域已经发生了一些改变

原论文: http://keg.cs.tsinghua.edu.cn/jietang/publications/KDD19-Chen-et-al-KOBE.pdf

代码和数据: https://github.com/THUDM/KOBE

PPT: http://keg.cs.tsinghua.edu.cn/jietang/publications/2019-Intelligent%20Feed%20Recommendation.pptx

问题背景 我们在线上购物时,对某个商品的了解主要是通过点击商品之后,阅读商品的描述文本以及看商品图实现的。尽管有推荐系统提供个性化的商品推荐,用户看到的商品描述都是预先写好的。即尽管用户被推荐了符合自己兴趣的商品,但当不同的人点开同一个商品,看到的内容却是相同的。

1kobekdd.png

于是,我们的主要动机是,给用户提供个性化的优质商品描述。具体来说,在这篇文章中,我们的目标是:

1. 自动地生成商品描述;

2. 生成个性化的商品描述;

3. 生成多样化并且具有信息量的商品描述。

模型介绍 过去的文本生成大多基于传统的基于RNN的Seq2Seq+Attention框架实现。这个模型最早用于机器翻译,后来逐步扩展到各大文本生成类的任务。 而当前机器翻译领域已经发生了一些改变,学术界和工业界普遍青睐于速度更快、效果更好的Transformer架构。 我们把Transformer架构引入到商品描述生成的任务中。

此外,针对以上提出的后两个问题,个性化生成和知识引入,我们在Transformer架构的基础上提出我们的新模型,KOBE (KnOwledge-Based pErsonalized product description generation)。下图简述了当前任务以及模型运行流程,我们设计了 Attribute Fusion 和 Knowledge Incorporation 模块来分别解决这两个问题。

1kobekddd.png

结果&展望 我们构建并开放了用于商品描述生成的数据集 TaoDescribe,包含超过二百万件的商品及描述,用以促进对此任务的研究工作。在生成质量、生成多样性、个性化、人工评测等四个指标中,我们的模型 KOBE 均显著超过了 Baseline。最后,我们认为,交互式地向用户呈现个性化的商品描述,并根据用户的反馈不断调整策略,是一个很有意义的未来研究方向。

1kobekdddd.png

下面给出了几个生成的例子

1kobekddddd.png

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

二维码 扫码微信阅读
推荐阅读 更多