wanglaiqi
wanglaiqi
生成一篇1000字的文章,测试了一下要1分钟多的时间,
vx:1191580068
你可以下载赛道三的数据集吗
好的,多谢
尝试使用load_in_8bit 加载 int4的模型,在NVIDIA GeForce RTX 3090 24G一块卡上运行很慢,生成一篇600字的文章要4minute
model 没有chat 属性,下面这句话怎么调通的? model.chat(tokenizer, messages, stream=True):
 我用的训练框架也是https://github.com/hiyouga/LLaMA-Efficient-Tuning 训练的loss 出现上升,不清楚怎么回事?