Llama-Chinese
Llama-Chinese copied to clipboard
llama-chinese-13b-chat 的输出非常奇怪
我下了13b-chat , 直接用 accelerate_client, accelerate_server 代码去用, fastapi能跑通, 但是结果很奇怪
我觉得不应该效果这么差, 想问下哪里有问题吗
我用的启动server的脚本方式是:
或者说这个项目是为了atom 这个模型定制的 LLAma效果不好, 谢谢
同