sun1092469590
sun1092469590
> 我的是100条;达到万级别,量已经非常多了。 嗯嗯,不知道咋回事,看其他项目用几万垂直数据训练的,开源出来的微调模型效果也不太好,通用领域不如6b原版,垂直领域也没有看出来效果更好。 @hiyouga 想请教一下作者大大,您这边自己有sft微调垂直领域模型模型吗,通用领域和垂直领域效果和6b相比怎么样?
> @sun1092469590 我垂域微调选用的是 LLaMA 模型 哦哦,好的好的,谢谢大大回复。 再问下哈,您这边LLaMA训练时什么样的方式?有进一步预训练吗还是直接sft微调的?
> @sun1092469590 继续预训练+微调 好的好的,继续预训练用的是垂直领域数据+通用领域数据结合的方式?数据量大概是啥级别呢?(或者6b、7b这样的模型继续预训练需要怎么样的数据量效果比较好)
> -- The CXX compiler identification is GNU 7.5.0 -- Detecting CXX compiler ABI info -- Detecting CXX compiler ABI info - done -- Check for working CXX compiler: /usr/bin/c++...
> 你的cmake find得到的gcc版本和本机系统的gcc版本不一致,建议查看conda中是否按照了低版本的gcc编译器。 你好,我也是cmake的时候遇到这个问题。我cmake find得到的gcc版本是12.1.0,和本机系统的gcc版本是一致的。 [CMakeLists.txt] 里面的 c++17 也符合我gcc的版本。哎,搞不懂哪里的问题 >> 我的问题好像是gcc版本太高,cuda不支持太高版本的gcc
> cuda 11.2 -- cuda 11.2好像最高支持的gcc版本10,你的gcc11.1应该也不行
我的也是空,直接下载的您微调后的模型,最开始报错130001 is not in list,看read切换了仓库后,回答都是空了,不知道是咋回事呢?
> 我的也是空,直接下载的您微调后的模型,最开始报错130001 is not in list,看read切换了仓库后,回答都是空了,不知道是咋回事呢? 补充下,在回答data/train.txt里面的相关问题是有回答,其他问题的返回答案是空的。请问题这大概是怎么回事呢?(模型直接下载的您百度网盘里面的模型)
> [root@localhost build]# ./benchmark -p /root/ChatGLM2-6B/deploy/flm/chatglm26b_lora/chatglm26b_fp16.flm -f ../example/benchmark/prompts/hello.txt -b 16 -l 18 Load (200 / 200) Warmup... finish. AVX: ON AVX2: ON AARCH64: OFF Neon FP16: OFF Neon DOT: OFF...
> 不要去折算,batch=1意思是一次性喂给模型一个输入,batch=16意思是一次性喂给模型16个输入。由于batch=1时模型没有满载,所以速度不能直接折算。@sun1092469590 这样啊,好的好的,谢谢哈