FlagEmbedding icon indicating copy to clipboard operation
FlagEmbedding copied to clipboard

Retrieval and Retrieval-augmented LLMs

Results 622 FlagEmbedding issues
Sort by recently updated
recently updated
newest added

我训练时使用了3090,评估时使用2080ti,用2080ti预测的结果比较理想,但是使用3090预测结果就不能看。 请问有遇到过类似的情况吗?

你好,https://github.com/FlagOpen/FlagEmbedding/blob/master/FlagEmbedding/llm_reranker/finetune_for_instruction/data.py,这里面 pos 和 neg 我的理解应该是Label对应 Yes 和 No, 为什么所有的query+pos-passage或者neg-passage 都拼接 Yes,怎么理解啊

I keep getting CUDA out of memory warning Thanks

您好,我使用bge-reranke-v2-m3在自己的英文领域数据上进行ft后。想要验证英文通用能力是否有明显下降。 目前看到对于交叉编码的reranker模型只有提供C-MTEB的评测脚本,主要包含中文相关评测集。是否有交叉编码reranker模型的通用英文评测脚本可以提供或者参考? 例如V2版reranker模型huggingface页面相应的evaluate结果是否有对应测评脚本路径。 ![eval](https://github.com/user-attachments/assets/11cfa5d1-cc63-4ac2-9dcb-98ca1565efcc)

Why don't you fine-tune the cross encoder for the tool retrieval task? Have you tried it? I have tried fine-tuning the cross encoder for the tool reranking task, but it...

观察到阈值的范围很大,在其他的issue中看到可以用normalize=True来进行归一化,那么归一化之前是小于0说明相关性很低么,还是没有这样的绝对说法,只是相关性从高排序就好,但是具体分数的大小没有实际意义?

I installed the repo for Visualized-BGE following the instructions at `FlagEmbedding/visual/README.md` on CPU. I downloaded the weights from HF. When executing the example code in the README: ```python ####### Use...