grok
grok
> > > 您好,请教一下,基于llm-based的reranker,贵团队发布了两个版本: 1.[bge-reranker-v2-gemma](https://huggingface.co/BAAI/bge-reranker-v2-gemma) 2.[BAAI/bge-reranker-v2-minicpm-layerwise](https://huggingface.co/BAAI/bge-reranker-v2-minicpm-layerwise) > > > 计算query和doc的相关性, 第一种使用的是输出yes的概率值。 第二种使用的是最后一个词的向量通过一个mlp映射到1的分值,可以使用layerwise,如果不layerwise的话,可以使用一些现成的库来做比如:MiniCPMForSequenceClassification。 > > > 请问下: 1.在相同的数据下,有比较过两种方法的差异吗? 2.在相同的数据下,同一种方法,过加不加prompt描述的差异吗? > > > > > > 你好,第一种原理时:计算query和doc的相关性,先输出yes或者no这样的标志,然后对这个标志上的数据做logits吗? 第二种原理中的最后一个词的向量进行映射是什么意思?不是逐句进行映射吗?针对以上两种原理不是很明白,期待您的回复,谢谢。 > > 只使用yes的logits作为score,并不会输出yes或者no这样的标志 其实使用yes的logits也是对最后一个token的hidden...
> > > > > > 您好,请教一下,基于llm-based的reranker,贵团队发布了两个版本: 1.[bge-reranker-v2-gemma](https://huggingface.co/BAAI/bge-reranker-v2-gemma) 2.[BAAI/bge-reranker-v2-minicpm-layerwise](https://huggingface.co/BAAI/bge-reranker-v2-minicpm-layerwise) > > > > > > 计算query和doc的相关性, 第一种使用的是输出yes的概率值。 第二种使用的是最后一个词的向量通过一个mlp映射到1的分值,可以使用layerwise,如果不layerwise的话,可以使用一些现成的库来做比如:MiniCPMForSequenceClassification。 > > > > > > 请问下: 1.在相同的数据下,有比较过两种方法的差异吗? 2.在相同的数据下,同一种方法,过加不加prompt描述的差异吗? > > >...