田常@蚂蚁
田常@蚂蚁
> > 提供搜索的目的是找到最相关的内容,对多跳事实推理的效果尚可,但逻辑计算推理更依赖于图谱的构成知识。 > > 对于图搜索是使用的规则匹配,还是向量搜索呀,为啥在给的V0.5的用户规则手册里面,上面文字写规则匹配,例子给出向量搜索呀?同理文本块在论文里边说有一个实体了,那是如何进行向量检索的? KAG Using the enhanced KAG-Solver framework to implement a more rigorous knowledge layering mechanism during reasoning. Based on scenario requirements for knowledge precision and...
> 求求各位大佬,有明白的一定告诉小弟一声 > > kag给的内部案例比如医疗图谱,我在开发者模式中可以使用大模型询问相关知识并得出相关答案,同时我在服务端,也就是web界面可以查看他的知识图谱以及知识探查等功能,但是我无法在服务端配置llm并在服务端进行推理问答。我想知道,在kag给的实际案例中,是不是限制了我在服务端查看它所使用的知识文档,以及推理问答模式? > >  图1 我在后端可以实现知识问答 > >  图2 我无法在前端配置llm以至于我无法进行推理问答 > >  图3 我可以查看知识图谱以及schema配置 the Runtime error 'invalid vectorizer config' means you should settle...
1、Check your local container status, normally it should be:  If port 3306 of release-openspg-mysql occupied by other processes,you an alter it in the docker-compose.yaml file. 
> > https://wenku.so.com/tfd/6a874ccd21c5a727ab8386b840c85839?src=baiduss1&ocpc_id=125406&plan_id=620343394&group_id=10385893731&keyword=%B9%FA%BC%D2%B0%B2%C8%AB%B7%A8&bd_vid=11203805537150773473 是这个文档? > > 可以再给下:1)使用的抽取模型,2)评测问题集 > > 是的大佬,抽取模型选的是Qwen/Qwen2.5-72B-Instruct,出问题的不是问答,是抽取结果的东西只有4个点,之前0.6版本的时候有很多点 KAG uses the open-source pdfminer to parse the content of PDF documents, which requires high quality of the pdf file...
> > 我也遇到同样的问题。 [@mmMm128](https://github.com/mmMm128) 0.6的时候实体、关系看上去很靠谱;现在没啥关系了,都成实体,完全抽不出关系了。 > > 是的!就是这样,不知道到底是为啥 Using the [example document](https://openspg.yuque.com/ndx6g9/docs/zxh5a5dr03945l1x#ONyLT) provided in the KAG quick start, the extraction model uses qwen2.5 7B, the vector model uses bge-m3, and...
> > 我也遇到同样的问题。 [@mmMm128](https://github.com/mmMm128) 0.6的时候实体、关系看上去很靠谱;现在没啥关系了,都成实体,完全抽不出关系了。 > > 是的!就是这样,不知道到底是为啥 Could you tell us how to reproduce your work, including your docs、llm conf、vector model conf、split_size ?
> 文档正确的读取并进行了知识抽取。使用通义千问官方模型问答可以调取知识库的内容进行回答。 使用本地的ollama模型问答时不管问什么都回答KAG的简介,无法调取知识库的内容回答。 > >  You can follow the [Chat Model Conf of KAG ](https://openspg.github.io/v2/docs_ch) to close thinking: 
> > > 我也遇到了相同的问题,但是我的不是本地ollma,而是自己本地搭建的vllm,用的模型是qwen3。但是调用硅基流动就不会,也是qwen3。被这个问题困扰了好久没找到如何解决 > > > > > > 应该是在产品端发生的问题。产品端在调用 `SolverMain.invoke()`的时候,使用了 [main_solver.py](https://github.com/OpenSPG/KAG/blob/master/kag/solver/main_solver.py) 中的 `qa()`方法,在回答问题的时候,先调用了 “self_cognition_pipeline”,如果 self_cognition_pipeline 做出了应答,那么就会返回 self_cognition 结果,而这个pipeline 读取了 [kag_intro_zh.md](https://github.com/OpenSPG/KAG/blob/master/kag/tools/algorithm_tool/self_cognition/docs/kag_intro_zh.md),这个文件是数据来源。 > > 这个现象是执行 self_cognition 的返回发生了错误,导致真正的pipeline没有被执行。 > > 除了修改代码,还没有想到其他可行方法。...
> ### Search before asking > * [x] I had searched in the [issues](https://github.com/OpenSPG/KAG/issues?q=is%3Aissue) and found no similar issues. > > ### Operating system information > Linux > > ###...
> ### Search before asking > * [x] I had searched in the [issues](https://github.com/OpenSPG/KAG/issues?q=is%3Aissue) and found no similar issues. > > ### Operating system information > Windows > > ###...