bilibot
bilibot copied to clipboard
林哥,我想问一下M1 16G 能跑吗?
林哥,我想问一下M1 16G 的MacBook Air,想用您的这套代码Finetune一个模型,把batchsize和layer都调很低,大概得训练多久呢?还是说直接跑不动呢?实在没钱换M3了。那要是租云服务器的Nvida的卡,您这套基于mac的代码还能跑通吗?
试过了 0.5B 是可以跑起来,但效果太惨了
对于非 32B
的模型,--lora-layers
需要改吗?
# 微调
python -m mlx_lm.lora --model models/Qwen1.5-0.5B-Chat --data data/ --adapter-path models/Qwen1.5-0.5B-Chat-Adapters --train --iters 1000 --batch-size 1 --lora-layers 12
# 合并
python -m mlx_lm.fuse --model models/Qwen1.5-0.5B-Chat --save-path models/Qwen1.5-0.5B-Chat-FT --adapter-path models/Qwen1.5-0.5B-Chat-Adapters
# 压缩
python compress_model.py
同问,我是m1 max 64g
qwen:32b-chat 模型就是18G
试了一下,16G内存的Mac,可以跑起来Qwen1.5-4B-Chat。
同问,我是m1 max 64g
调整中,速度挺慢的