bilibot icon indicating copy to clipboard operation
bilibot copied to clipboard

就是个微调搞那么大模型有啥必要

Open eswulei opened this issue 1 year ago • 9 comments

还只能m系列能跑

eswulei avatar May 15 '24 01:05 eswulei

我M1 Pro满血版带32G内存已经爆了,跑不了。。。

Bruce-zxy avatar May 15 '24 02:05 Bruce-zxy

我估计想要跑至少要64G内存

Bruce-zxy avatar May 15 '24 02:05 Bruce-zxy

我M1 Pro满血版带32G内存已经爆了,跑不了。。。

本来还准备尝试跑一下,现在放弃了。。。

kelvinji2009 avatar May 15 '24 07:05 kelvinji2009

不如qwen0.5b硬调

mxr612 avatar May 15 '24 14:05 mxr612

我M1 Pro满血版带32G内存已经爆了,跑不了。。。

你这么一说 ,我24G内存就不折腾了

jiuqianyuan avatar May 15 '24 15:05 jiuqianyuan

Ollama 装个 llama3 8b 改下system prompt就差不多了,我觉得微调都太大没必要

RoversX avatar May 15 '24 17:05 RoversX

确实有点发费周章,不过QLoRA还是可以搞一下的,毕竟还是更finetune

new4u avatar May 16 '24 11:05 new4u

我M1 Pro满血版带32G内存已经爆了,跑不了。。。

我和你一样的配置,在跑,跑了一个迭代显示: Starting training..., iters: 1000 Iter 1: Val loss 9.112, Val took 5987.109s

我计算了一下,按这速度一直跑,跑完需要2个多月。。。

csjacsj avatar May 20 '24 11:05 csjacsj

我M1 Pro满血版带32G内存已经爆了,跑不了。。。

我和你一样的配置,在跑,跑了一个迭代显示: Starting training..., iters: 1000 Iter 1: Val loss 9.112, Val took 5987.109s

我计算了一下,按这速度一直跑,跑完需要2个多月。。。

Iter 10: Train loss 9.735, Learning Rate 1.000e-05, It/sec 0.004, Tokens/sec 5.596, Trained Tokens 12868, Peak mem 81.864 GB zsh: killed python -m mlx_lm.lora --model models/Qwen1.5-32B-Chat --data data/ --train

csjacsj avatar May 20 '24 11:05 csjacsj