在前几节中,仅考虑了明确的反馈,并根据观察到的评分对模型进行了训练和测试。这种方法有两个缺点:首先,大多数反馈在现实世界场景中不是显式的而是隐式的,收集显式反馈的成本更高。其次,完全忽略了可能预测用户兴趣的未观察到的用户-项目对,使得这些方法不适用于评级不是随机丢失而是由于用户偏好而丢失的情况。未观察到的用户-项目对是真实负反馈(用户对项目不感兴趣)和缺失值(用户将来可能与项目交互)的混合体。我们简单地忽略矩阵分解和 AutoRec 中未观察到的对。清楚地,
为此,一类旨在从隐式反馈生成排名推荐列表的推荐模型得到了普及。一般而言,个性化排名模型可以通过逐点、成对或列表方法进行优化。Pointwise 方法一次考虑单一交互,并训练分类器或回归器来预测个人偏好。矩阵分解和 AutoRec 使用逐点目标进行了优化。成对方法为每个用户考虑一对项目,并旨在为该对近似优化排序。通常,成对方法更适合排序任务,因为预测相对顺序让人联想到排序的本质。Listwise 方法近似于整个项目列表的顺序,例如,NDCG)。然而,listwise 方法比 pointwise 或 pairwise 方法更复杂,计算量更大。在本节中,我们将介绍两个成对目标/损失,贝叶斯个性化排名损失和铰链损失,以及它们各自的实现。
21.5.1。贝叶斯个性化排序损失及其实现
贝叶斯个性化排名 (BPR) (Rendle等人,2009 年)是一种成对的个性化排名损失,源自最大后验估计。它已被广泛应用于许多现有的推荐模型中。BPR 的训练数据由正负对(缺失值)组成。它假设用户比所有其他未观察到的项目更喜欢正面项目。
在形式上,训练数据由元组构成,形式为 (u,i,j), 代表用户u喜欢这个项目i在项目上j. 下面给出了旨在最大化后验概率的 BPR 的贝叶斯公式:
在哪里Θ表示任意推荐模型的参数,>u表示用户期望的所有项目的个性化总排名u. 我们可以制定最大后验估计来推导出个性化排名任务的通用优化标准。
在哪里 D=def{(u,i,j)∣i∈Iu+∧j∈I∖Iu+} 是训练集,有Iu+表示用户的项目 u喜欢,I表示所有项目,并且 I∖Iu+指示除用户喜欢的项目之外的所有其他项目。y^ui和y^uj是用户的预测分数u到项目i和j, 分别。先验的