自己转换的qwen2.5输出结果是乱码
for multi-file safetensor model python converter.py --input_model=model.safetensors.index.json --output_model=model.mllm --type=safetensor
使用这个指令转成的mllm模型加载后,输出结果是乱七八糟的的文字
请问您使用什么指令运行模型的呢?在什么设备上运行?
mi9手机,chatbotapp,使用https://www.modelscope.cn/models/Qwen/Qwen2.5-3B-Instruct/files模型自己转成mllm格式
cc @yirongjie 请解答下
您可以在 命令行运行下试试,可能是 chatbotapp 不支持 qwen2.5 的原因 cc @yirongjie
请问现在状况如何呢 我也遇到了类似的问题
@Lucyliu1234 您是在命令行里面使用的吗?
你说的是转换模型的命令吗?我是使用的命令行 然后使用的这两个命令
python /home/liuxu/projects/mllm-main/tools/convertor/vocab.py --input_file=/mnt/sda/lx/Qwen1.5-MoE/tokenizer.json --output_file=/mnt/sda/lx/Qwen1.5-MoE-mllm/vocab-BPE.mllm --type=BPE
python converter.py --input_model=/mnt/sda/lx/Qwen1.5-MoE/model.safetensors.index.json --output_model=/mnt/sda/lx/Qwen1.5-MoE-mllm/model.mllm --type=safetensor
---原始邮件--- 发件人: @.> 发送时间: 2025年10月12日(周日) 晚上8:36 收件人: @.>; 抄送: @.@.>; 主题: Re: [UbiquitousLearning/mllm] 自己转换的qwen2.5输出结果是乱码 (Issue #456)
chenghuaWang left a comment (UbiquitousLearning/mllm#456)
@Lucyliu1234 您是在命令行里面使用的吗?
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you were mentioned.Message ID: @.***>