FlagEmbedding
FlagEmbedding copied to clipboard
Retrieval and Retrieval-augmented LLMs
有没有docker cpu部署加速的例子
您好,想请教一下,finetue bge-m3模型与finetune bge系列模型区别有什么区别吗?对数据量有什么控制要求吗?finetune的step控制多少比较合适?finetue bge-m3的脚本与finetune bge模型的脚本一样吗?
部署方案1: 代码:FlagEmbedding-FlagReranker(model_name, use_fp16=True).compute_score() 部署方案2: 使用text-embeddings-inference:cpu-1.0部署 决定使用方案1是因为text-embeddings-inference:cpu-1.0调用太慢了,通常需要10多秒 请问一下为什么两者分数差这么多,另外也测试了SentenceTransformer-CrossEncoder和方案2几乎没差
您好,我想将bge-m3用于视频检索场景,构造hard negative的方式是用原始的m3模型的dense embedding召回与query最相似标题,通过gpt-4做打标,选取标注结果不相关的样本,目前构造了80k的[query, pos, neg]样本像用于finetune 请问下finetune有推荐的参数设置么,比如batch_size,learning rate,temperature,看到原文里好像没提到
Bge-M3模型在进行s2q检索任务时,是否也需要添加instruction?
本地部署了bge-reranker-large模型后,go服务要怎么调用,没看到相关demo和说明
您好,请问一下,bge-m3怎么进行fine-tune呢,之前fine-tune bge的脚本好像不能用在bge-m3上
 看看这个问题如何解决,感谢
时间问题
测试一个模型在cmteb上的完整指标大约需要多长的时间?
请问reranker模型微调成功后,建议有”需要和原始reranker模型进行合并“这一步吗?