论文名:Learning a Deep Listwise Context Model for Ranking Refinement
背景
在搜索场景下,给定一个查询q,q和d特征的向量表示x(q,d),rank阶段的loss可以表示为:
其中:Q是query的集合,D是doc集合,f是rank模型函数
可以看到,传统的rank模型是一种point-wise的建模方法,没有考虑不同doc之间互相的影响。因此这篇论文提出了考虑上下文影响的rerank模型DLCM,其loss可以表示为:
其中:Rq是rank模型 f 的排序结果,Xq = {x(q,d)|d ∈ Rq} ,I 表示local context model,建模上下文信息,φ是最终的打分函数
重点在于如何找到最优的 I 和 φ 来最小化loss
模型结构
DLCM模型主要包含3个步骤:
1. 用rank模型对doc排序,并用embedding层把(q,d)表示为特征向量x(q,d) (这个特征向量是从rank模型的计算结果,还是rerank阶段通过embedding层训练出来的?)
2. 按rank模型排序位置从低到高把特征向量x(q,di)输入GRU中,最终产生一个隐向量sn和n个隐层输出oi
和 n个隐层输出 oi ,i∈[1,n] ,这个局部模型被称为local context model - I(Rq,Xq) ,输出被称为local ranking context
标签:DLCM,loss,Rq,特征向量,模型,rank,重排 From: https://www.cnblogs.com/xumaomao/p/18213440