wwjCMP
wwjCMP
需要重新创建知识库
> 目前的默认分块都蛮小,市场上的模型普遍又能接受很长的上下文。ChatOllama会提高分块大小,并提供分块参数设置。期望能提高准确性 现在有跟进这个方面吗?一些本地的嵌入模型支持8000上下文了
> > > 目前的默认分块都蛮小,市场上的模型普遍又能接受很长的上下文。ChatOllama会提高分块大小,并提供分块参数设置。期望能提高准确性 > > > > > > 现在有跟进这个方面吗?一些本地的嵌入模型支持8000上下文了 > > #608 > > 合并了。将文档分块大小提到了3000。 > > 方便的话请在你的应用场景中看看是否在数据检索质量上会有提升。多谢 好不少,希望source来源数和最低相似度也开放,允许自由设置。
> 全库是什么意思?请解释一下。是把知识库内的文本一股脑交给支持长上下文的模型吗 类似于在线模型的PDF对话
还有设置完上下文长度,是否可以有效避免卡死的情况。比如我限制它回答的长度就不会卡死。 https://github.com/sugarforever/chat-ollama/issues/372 https://github.com/sugarforever/chat-ollama/issues/255
ollama API 上下文设置见这里 https://github.com/ollama/ollama/blob/main/docs/faq.md
> > ollama API 上下文设置见这里 https://github.com/ollama/ollama/blob/main/docs/faq.md > > 感谢分享,我将它应用到代码中 是否和RAG调用的片段数联系在一起,比如设置更长的上下文窗口,相应也设置更多的文本片段 https://github.com/sugarforever/chat-ollama/issues/324
我想问一下这个功能还没有实现吗?应该不是很复杂的功能吧。现在temperature的默认值是多少,感觉现在模型的回答随机性有点过大了
https://github.com/sugarforever/chat-ollama/issues/261