chaofan
chaofan
感谢您的关注,我们后续会发布技术报告并开源三个模型的微调代码
target指示的是第几个为pos,所以0的意思是第0个为pos
训练以及评测多语言时都用的是英文的prompt,所以中文场景继续沿用这个prompt就可以
When you use `compute_score`, you can set `normalize=True`.
只要是同一模型,得到的embedding就会是相同的
可以从`merged_model`加载,这个是合并后全参数的模型
reranker是针对同一query,不同候选passage进行排序的,最好是分开任务进行排序,也可以实际测试一下效果
在训练的数据里,修改prompt这一栏的值就可以
可以直接保存lora参数,后续合并模型就可以 合并模型的代码参考: ``` python from FlagEmbedding.llm_reranker.merge import merge_llm merge_llm('google/gemma-2b', 'lora_llm_output_path', 'merged_model_output_paths') ```
可能是`tansformers`版本的问题,可以尝试更换`transformers`的版本解决