ldwang
ldwang
预训练数据会做清洗。数据分布更多细节后面会放出来。谢谢关注。
先关闭,如有问题重新打开issue,谢谢
先关闭,如有问题重新打开issue,谢谢
out = predictor.predict_generate_randomsample(text, out_max_length=200,top_p=0.95) 
> 你好,我在使用aquila-7b模型的generate.py脚本进行推理会报错: /home/edcuser/.conda/envs/pytorch_cuda117/lib/python3.10/site-packages/flagai/model/layers/atten │ │ tions.py:189 in forward │ │ │ │ 186 │ │ │ │ 187 │ │ if self.config.flash_atten or (self.config.flash_atten_aquila_style and not self │ │ 188...
先关闭,如有问题重新打开issue。谢谢
https://github.com/FlagAI-Open/FlagAI/pull/379 可以试试这样是否可以修复
已发布1.7.3,大家可以更新下。如果问题,及时反馈,谢谢
state_dict 可以指定路径,如果已有就不会再下载了。 通常我都是在全局搞个目录,autoloader指定这么个目录。遇到新模型下载到全局目录
https://model.baai.ac.cn/models 可以从这里选择下载。