wwjCMP

Results 203 issues of wwjCMP

然后要进行多模型对话的话,在模型选择哪里增加一个开关开启多模型对话。我想大多数情况下是切换回答。

https://github.com/sugarforever/chat-ollama/issues/460

知识库中经常需要导入一些文献的pdf。这些文件通常最后都是大段的参考文献,这些信息经常对于回答是毫无用处的,但是受限于RAG的原理,还是很高概率被检索出来作为参考。尽管通过不断修改提问的用语可以规避,但十分麻烦。如果在嵌入本地文件的时候提供一些简单过滤选项可以有效减少它的影响,比如嵌入的时候忽略前面多少页,或者忽略后面多少页。当然需要针对每个pdf进行设置。 https://github.com/sugarforever/chat-ollama/issues/315

https://github.com/VikParuchuri/marker

https://vaspkit.com/tutorials.html#ways-to-run-vaspkit 这类网站好像不能正确建立知识库

往知识库中导入同名文件的时候,是否有可能实现只更新修改的部分。我想导入我的obsidian笔记,但笔记总是不断更新的,过一段时间知识库中的内容就不是最新的了。

ollama现在支持 OLLAMA_NUM_PARALLEL 现在调研ollama进行嵌入很慢,只有一个嵌入请求在运行。如果多请求进行调用会好点

enhancement

**问题描述** 请支持一下ollama 多模态的 minicpm

- [x] Screenshot of note + Copilot chat pane + dev console added **(required)** **Describe how to reproduce** I use local embedding model through ollama. **Expected behavior** Only found the...

question

Is it possible to implement o1-like reasoning chains in obsidian-copilot? https://github.com/bklieger-groq/g1

feature request