chaofan

Results 117 comments of chaofan

感谢您的关注,我们后续会发布技术报告并开源三个模型的微调代码

target指示的是第几个为pos,所以0的意思是第0个为pos

训练以及评测多语言时都用的是英文的prompt,所以中文场景继续沿用这个prompt就可以

When you use `compute_score`, you can set `normalize=True`.

reranker是针对同一query,不同候选passage进行排序的,最好是分开任务进行排序,也可以实际测试一下效果

可以直接保存lora参数,后续合并模型就可以 合并模型的代码参考: ``` python from FlagEmbedding.llm_reranker.merge import merge_llm merge_llm('google/gemma-2b', 'lora_llm_output_path', 'merged_model_output_paths') ```

可能是`tansformers`版本的问题,可以尝试更换`transformers`的版本解决