fastllm
fastllm copied to clipboard
fastllm是否支持使用bitsandbytes量化的chatglm3-6b-base int4模型
目前使用torch2flm脚本转换chatglm3-6b-base int4模型,会产生20多G的.flm文件。 请问是否支持直接将int4量化的chatglm3-6b-base模型转为flm文件并推理?