xjDUAN
xjDUAN
在HuggingFace官网上不是有很多关于bert的预训练模型吗?我想问一下各位大佬,我能不能基于这个框架,直接将预训练模型的文件换掉就直接用?
**I get the following error when compiling with make LLAMA_CUBLAS=1 :** make LLAMA_CUBLAS=1 LDFLAGS=-L/usr/local/cuda-11.6/targets/x86_64-linux/lib I llama.cpp build info: I UNAME_S: Linux I UNAME_P: x86_64 I UNAME_M: x86_64 I CFLAGS: -I....
from argparse import ArgumentParser import enum import sys sys.path.insert(0, '/home/Fengshenbang-LM') from fengshen import UbertPipelines from fengshen.metric import metric import finetuneutils as utils import pandas as pd import copy import json...
模型为bge-m3 我使用了450条训练数据,其中每条数据包括,1个query sentence,1个pos sentence,7个neg sentence。 其中7个neg sentence,有两种情况: 1 其中有1个neg sentence是标注的,剩下的6个是随机匹配的(满足bgemodel.compute_score小于0.7) 2 7个全都是随机生成的。 1个npos sentence,有两种情况:LLM生成的或者手动标注的。  从实验结果中可以发现,当我的权重配比中,sparse不为0时,acc会降低,这种情况是为什么?