world2025

Results 113 comments of world2025

parser.add_argument( '--model_dir', type=str, default='inception_v3.ckpt/',

ok,i solve it

ok . I solve it

@SONOR-BE 请问你解决了吗

> 目前没有出教程计划,你可以参考这些地方: 整体思路: #2 数据样例:[dataset](https://github.com/stylellm/stylellm_models/tree/main/dataset) 微调框架使用:[LLaMA-Factory](https://github.com/hiyouga/LLaMA-Factory) 你好,请问一下llama-factory rm数据集中支持output有多个response吗,谢谢

> 咨询一下Qwen1.5-32B-Chat-GPTQ-Int4微调的参数能不能合并,我上次问过qwen的,说合并不了 @hiyouga 没法合并,是不是这样就没法量化模型的lora微调了

> 你好,我是在本地部署的API,没有对外的接口,这里的调用方式是采用llamafactory文档中的方式启动服务后,结合给出的API文档中的参数自己写的。 将仙 ***@***.***   > […](#) > ------------------ 原始邮件 ------------------ 发件人: "hiyouga/LLaMA-Factory" ***@***.***>; 发送时间: 2024年11月18日(星期一) 晚上7:47 ***@***.***>; ***@***.******@***.***>; 主题: Re: [hiyouga/LLaMA-Factory] reward model 使用do_predict得到的结果和直接用api部署不同 (Issue #5967) @vxfla 你好,请问一下,我用你的调用api方法404,请问做了什么修改吗,谢谢 — Reply to this email...

vllm supports qwen2.5-14B-Instruct-1M now?

i have an error when i load qwen2.5-14B-Instruct-1MINFO 06-10 16:32:52 [core.py:159] init engine (profile, create kv cache, warmup model) took 7.68 seconds INFO 06-10 16:32:52 [core_client.py:439] Core engine process 0...