基于会话的推荐系统中的排序学习
立即解锁
发布时间: 2025-08-30 02:01:32 阅读量: 4 订阅数: 13 AIGC 

# 基于会话的推荐系统中的排序学习
在信息检索和推荐系统领域,排序聚合方法对于提高推荐结果的准确性和多样性至关重要。本文将介绍多种排序聚合方法,并对不同的学习排序方法进行讨论。
## 1. 信息检索中的排序聚合方法
### 1.1 Borda计数法
Borda计数法是排序聚合的早期方法之一,它基于无监督方法,为每个选民的固定候选集进行偏好排序。对于每个选民,排名最高的候选者获得`c`分,第二高的获得`c - 1`分,依此类推。若有候选者未被排名,则剩余分数平均分配给这些未排名的候选者。最后,候选者按总分数排名,分数最高者获胜。该方法根据文档在基础排名中的位置确定最终排名,若文档在多个基础排名中都排名较高,那么它在最终排名列表中也会排名靠前。
### 1.2 无监督和有监督排序聚合方法
无监督排序聚合方法在最终排名决策中使用多数投票,平等对待所有初级排名列表,并为在大多数初级排名列表中排名较高的文档分配高分。然而,不同搜索引擎生成的排名列表可能具有不同的准确性和可靠性,有监督学习方法如Lebanon和Lafferty提出的cranking方法可以解决这个问题。该方法使用以下概率模型:
\[
P(\pi|\theta, \Sigma) = \frac{1}{Z(\theta, \Sigma)} \exp\left(\sum_{j = 1}^{k} \theta_j \cdot d(\pi, \sigma_j)\right)
\]
其中,$\pi$是最终排名,$\Sigma = (\sigma_1, \ldots, \sigma_k)$是基本排名,$d$是两个排名之间的距离,$\theta$是权重参数。若最终排名和基础排名在训练数据中都是完整的排名列表,则对数似然函数计算如下:
\[
L(\theta) = \log \prod_{i = 1}^{m} P(\pi_i|\theta, \Sigma_i) = \sum_{i = 1}^{m} \log \frac{\exp\left(\sum_{j = 1}^{k} \theta_j \cdot d(\pi_i, \sigma_{i,j})\right)}{\sum_{\pi_i \in \Pi} \exp\left(\sum_{j = 1}^{k} \theta_j \cdot d(\pi_i, \sigma_{i,j})\right)}
\]
### 1.3 ManX和v - ManX方法
Liang等人提出了基于聚类假设和文档间相似性信息的多学习聚合方法ManX和v - ManX。ManX是一种基于流形的数据融合方法,允许相似文档在融合文档的全局流形中相互支持。为进一步提高排名聚合性能,还提出了虚拟对抗流形学习算法v - ManX和使用锚定文档的高效版本a - v - ManX。这些算法首先为每个原始文档创建一个虚拟对抗文档,然后对模型进行正则化,使其在对抗扰动下产生相同的输出分布模型。
### 1.4 即时搜索解决方案
即时搜索在信息检索领域研究较少,面临着结合多个匹配结果和防止辅助匹配排名高于逻辑匹配等挑战。Rome等人提出了一种解决方案,该方法包括三个阶段:
1. **候选生成**:与多个索引建立异步调用。
2. **可用性过滤**:根据用户对项目的可用性过滤候选者。
3. **重新排名**:通过启发式方法将结果合并为一个列表,然后使用两个深度学习模型对不同候选列表进行组合和微调,最后应用业务逻辑创建最终排名。
### 1.5 RABF方法
由于当前的排名聚合方法对特征不敏感或对噪声特征敏感,Chiang等人提出了一种新的排名聚合模型RABF,该模型同时从特征和比较中学习排名分数。该方法通过平衡成对比较和特征信息来估计排名,其亮点之一是提高了样本复杂度保证。
### 1.6 排名分解方法
为降低全局排名学习的计算复杂度,常用的方法是使用排名分解。该方法将收集的序数数据转换为成对比较的集合,忽略原始数据中的依赖关系,然后通过现有的独立成对比较推理算法进行处理。然而,完全的排名分解会导致估计偏差,Khetan等人研究了如何根据数据的拓扑结构和成对比较的权重来产生准确和无偏的估计
0
0
复制全文
相关推荐










