查看原文
其他

CIKM2022 | CROLoss: 一种推荐系统中检索模型的可定制损失函数

ML_RSer 机器学习与推荐算法 2022-12-14
嘿,记得给“机器学习与推荐算法”添加星标

本文分享一篇发表在CIKM2022的关于一种推荐系统中检索模型的可定制损失函数,其将召回模型与Recall指标进行统一建模,并可以根据不同的检索规模进行自适应的优化。另外,其给出了所提出损失函数与其他经典损失函数(如交叉熵、成对损失以及三元组损失)的关系。

链接:https://arxiv.org/abs/2208.02971

在大规模推荐场景中,针对资源有限的情况下准确地检索出前N个相关的候选者是至关重要的。为了评估这类检索模型的性能,Recall@N,即在前N个排名中检索到的正样本的频率,其已被广泛使用。然而,大多数应用在传统检索模型的损失函数,如softmax交叉熵、triplet loss和成对对比损失,并不能直接优化Recall@N这一指标。此外,那些传统的损失函数不能针对每个应用所需的特定检索规模N进行定制,因此可能导致性能的提升是有限的。

假设商品是从用户-商品集合中提取的正样本,商品是用户𝑢的负样本集合。针对于分类任务的softmax 交叉熵损失函数如下:

针对于成对排序任务的bpr损失函数如下:

针对于包含边界的成对排序任务的triplet损失函数如下:

然而,上述损失函数没有直接考虑召回指标的建模。针对以上问题,本文提出了一种可定制的Recall@N优化损失(ROLoss),其是一个可以直接优化Recall@N指标的损失函数,并且可以针对不同的𝑁进行定制。另外,所提出的CRLoss定义了一个更普遍的损失函数空间,涵盖了大多数传统的损失函数的特例。通过在两个公共基准数据集上评估CRLoss。结果表明,在两种数据集的检索规模N的不同选择下,CROLoss比传统损失函数取得了SOTA的结果。CROLoss已经被部署到在线电子商务广告平台上,为期14天的在线A/B测试表明,CROLoss带来了4.75%的业务收入的大幅增长。

本文基于被广泛使用的双塔召回模型作为其基本模型。

在本文中,首先以成对样本比较的形式重写Recall@N指标(从公式5-7)。通过利用成对比较核函数𝜙,该目标函数被导出为可微的损失函数空间。

另外还引入了一个权重函数,以允许此损失函数可定制为不同的选择𝑁。

此外,可以证明,所提出的交叉损失函数空间涵盖了传统的交叉熵损失、三元组损失和bpr损失。

此外,通过分析交叉损失的梯度,发现比较核函数𝜙起着两种不同的作用。

为了进一步改进这个损失函数,其开发了Lambda方法,这是一种基于梯度的方法,允许为这两个角色选择不同的内核𝜙1和𝜙2,并进一步提高系统性能。

以下为所提损失函数与交叉熵损失、三元组损失、bpr损失的实验对比结果。

感兴趣的读者可阅读原论文进行深入阅读。
欢迎加入机器学习与推荐算法讨论群一起交流论文idea以及前沿技术。


欢迎干货投稿 \ 论文宣传 \ 合作交流

推荐阅读

论文周报 | 推荐系统领域最新研究进展
基于对抗学习的隐私保护推荐算法
SIGIR2022 | 基于森林的深度推荐算法

由于公众号试行乱序推送,您可能不再准时收到机器学习与推荐算法的推送。为了第一时间收到本号的干货内容, 请将本号设为星标,以及常点文末右下角的“在看”。

喜欢的话点个在看吧👇

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存