liangleikun

Results 1 issues of liangleikun

embedding model前向推理时,不同batchsize,相同文本,输出embedding小数点后几位不同,请问这是什么原因导致的?理论上相同的输入应该会有完全相同的输出才对? 使用的是示例代码: ``` sentences_1 = ["样例数据"] sentences_2 = ["样例数据", "样例数据", "样例数据", "样例数据"] model_path='./model_dir/bge-base-zh-v1.5' model = FlagModel(model_path, query_instruction_for_retrieval="为这个句子生成表示以用于检索相关文章:", # query_instruction_for_retrieval="", use_fp16=False) # Setting use_fp16 to True speeds up computation with...