BrownTen
BrownTen
请问作者,bge-reranker-large 和 bge-reranker-base 的区别 是什么?(以下是我的几个猜想。) - 训练数据更大? - 支持更多语言? - 提供更多选择,根据自己资源配置选 large or base? 我看到了作者在Reranking的模型排名,large相比base在平均得分上高出1%左右 我也看到了其他博主的测评,large相比base看上去对passage ranking的结果有一定提升,但好像也提升的不多。 所以我在考虑**在有限的资源上,应该选择 large还是 base**?
我已经了解: - BGE-ReRanker是以xlm-roberta为基座,通过大量的多语言数据集(query,pos,neg)进行训练的一个Cross-Encoder。 - 一个支持STS任务的Cross-Encoder的[训练方法](https://github.com/UKPLab/sentence-transformers/blob/master/examples/training/cross-encoder/training_stsbenchmark.py),通过(sentence1,sentence2,label)这样的数据对基座模型进行训练。 请问: 1. BGE-ReRanker的训练方法和Cross-Enconder for STS的这个训练方式是否一致? 2. BGE-ReRanker的训练方法,大概是一个怎样的过程? 3. BGE-ReRanker是否有提供相应的Paper?