FlagEmbedding icon indicating copy to clipboard operation
FlagEmbedding copied to clipboard

Retrieval and Retrieval-augmented LLMs

Results 622 FlagEmbedding issues
Sort by recently updated
recently updated
newest added

有没有docker cpu部署加速的例子

您好,想请教一下,finetue bge-m3模型与finetune bge系列模型区别有什么区别吗?对数据量有什么控制要求吗?finetune的step控制多少比较合适?finetue bge-m3的脚本与finetune bge模型的脚本一样吗?

部署方案1:![image](https://github.com/FlagOpen/FlagEmbedding/assets/30230347/1b32acd2-de46-405d-9e17-ac1b51b02e55) 代码:FlagEmbedding-FlagReranker(model_name, use_fp16=True).compute_score() 部署方案2:![image](https://github.com/FlagOpen/FlagEmbedding/assets/30230347/e46c5365-c86c-41af-8a4e-12440395f2ba) 使用text-embeddings-inference:cpu-1.0部署 决定使用方案1是因为text-embeddings-inference:cpu-1.0调用太慢了,通常需要10多秒 请问一下为什么两者分数差这么多,另外也测试了SentenceTransformer-CrossEncoder和方案2几乎没差

您好,我想将bge-m3用于视频检索场景,构造hard negative的方式是用原始的m3模型的dense embedding召回与query最相似标题,通过gpt-4做打标,选取标注结果不相关的样本,目前构造了80k的[query, pos, neg]样本像用于finetune 请问下finetune有推荐的参数设置么,比如batch_size,learning rate,temperature,看到原文里好像没提到

Bge-M3模型在进行s2q检索任务时,是否也需要添加instruction?

本地部署了bge-reranker-large模型后,go服务要怎么调用,没看到相关demo和说明

您好,请问一下,bge-m3怎么进行fine-tune呢,之前fine-tune bge的脚本好像不能用在bge-m3上

![EA9869BA-3730-4cd1-AF98-8B9EBBCA4973](https://github.com/FlagOpen/FlagEmbedding/assets/55675532/3c7a8232-54db-47f0-977f-5621dc3cc313) 看看这个问题如何解决,感谢

测试一个模型在cmteb上的完整指标大约需要多长的时间?

请问reranker模型微调成功后,建议有”需要和原始reranker模型进行合并“这一步吗?