juicefrontier

Results 5 comments of juicefrontier

i think llamafactory-cli cmd should use yaml file,not json file。reference:[https://github.com/hiyouga/LLaMA-Factory/blob/main/examples/README.md](url)

参考这个试试,https://github.com/chatchat-space/Langchain-Chatchat/issues/4888#issuecomment-2323958098

我也遇到這個問題了,而且發現問問題的方式不同,結果有時候會出來,有時候不會出來,只有引用。蹲一個解決方案。。。

> 我使用的qwen2:1.5,embedding是quentinz/bge-large-zh-v1.5:latest,默认知识库,目前是乱回答状态(右上角有个runing,它停了就出来了)。 我换成了qwen2:7b,ollama环境的,效果好多了,”无法回答“的概率低了点,但还是有挺多乱回的

你用的什么大模型?换个大模型好像可以生成更好一点的结果,出现这种”无法回答该问题“的情况要少一点。