ChatGLM-Tuning
ChatGLM-Tuning copied to clipboard
finetuning.py是不是不支持int8的权重,只能使用f16权重哈
如题,先谢为敬~
没试过直接load预量化好的int8的权重,但理论上有问题的话改下加载方式就可以
没试过直接load预量化好的int8的权重,但理论上有问题的话改下加载方式就可以
作者您好,要是使用执行finetune.py设置参数int8的话,对应的模型是不是也需要chatglm-6b-int8 这个才行呢