xldistance
xldistance
> > 可能是你的LLM返回的json格式有问题 > > 是的,因为我是用ollama启动的模型,在创建模型的时候,温度系数调的高了,导致回复的格式不对 是模型的问题,我现在用llama3.1 8b chinese模型可以正常用global查询,temperature设置为0.3
> > llama3.1 8b chinese > > 还是会报错,但报完错会输出一些内容。我用的xinference你用的ollama吗? 可以正常回答问题了吧,就是包含point这个key的字典缺失
There should be an error running your embedding model, check out my setup! ``` embeddings: ## parallelization: override the global parallelization settings for embeddings async_mode: asyncio # or asyncio llm:...