小铭
小铭
如果企微聊天记录可以导出的话 后续可以支持
应该还没有,欢迎贡献
不支持因特尔mac
微调效果好的也可以在这里分享一下自己的心得
> 为什么这个微调不采用多轮对话的方式呢? ` "prompt_with_history": false, 改为true可以` 效果我感觉和不用多轮差不多,可能我微调的模型太小了,本来就没什么多轮能力
是推理过程中爆了吗,把前缀缓存关了试一下? https://github.com/xming521/WeClone/blob/4c383d3c957313124217f864a9187d54ec09b747/weclone/core/inference/vllm_infer.py#L120C10-L120C31
LLaMA-Factory看起来能用docker支持,你可以试试 https://github.com/hiyouga/LLaMA-Factory/blob/610f164c/README_zh.md#%E6%9E%84%E5%BB%BA-docker
目前还不支持,未来会支持
stt不支持,tts半支持
- vllm还不支持mac,配置里的enable_clean设为false,不清洗数据集 - fp16 关掉