田常@蚂蚁

Results 123 comments of 田常@蚂蚁

> > 提供搜索的目的是找到最相关的内容,对多跳事实推理的效果尚可,但逻辑计算推理更依赖于图谱的构成知识。 > > 对于图搜索是使用的规则匹配,还是向量搜索呀,为啥在给的V0.5的用户规则手册里面,上面文字写规则匹配,例子给出向量搜索呀?同理文本块在论文里边说有一个实体了,那是如何进行向量检索的? KAG Using the enhanced KAG-Solver framework to implement a more rigorous knowledge layering mechanism during reasoning. Based on scenario requirements for knowledge precision and...

> 求求各位大佬,有明白的一定告诉小弟一声 > > kag给的内部案例比如医疗图谱,我在开发者模式中可以使用大模型询问相关知识并得出相关答案,同时我在服务端,也就是web界面可以查看他的知识图谱以及知识探查等功能,但是我无法在服务端配置llm并在服务端进行推理问答。我想知道,在kag给的实际案例中,是不是限制了我在服务端查看它所使用的知识文档,以及推理问答模式? > > ![Image](https://github.com/user-attachments/assets/0b2f49b2-6d35-453c-9ac7-8a4097557709) 图1 我在后端可以实现知识问答 > > ![Image](https://github.com/user-attachments/assets/09afc153-c1ac-4b12-aecd-9fccfef01c59) 图2 我无法在前端配置llm以至于我无法进行推理问答 > > ![Image](https://github.com/user-attachments/assets/283eb6e0-e86e-4aa5-86ab-10baa4929c02) 图3 我可以查看知识图谱以及schema配置 the Runtime error 'invalid vectorizer config' means you should settle...

1、Check your local container status, normally it should be: ![Image](https://github.com/user-attachments/assets/7bc5c6cb-9849-4688-a40f-b772bcabca17) If port 3306 of release-openspg-mysql occupied by other processes,you an alter it in the docker-compose.yaml file. ![Image](https://github.com/user-attachments/assets/936268a0-8f9d-454f-9c1f-5aba8297e6ae)

> > https://wenku.so.com/tfd/6a874ccd21c5a727ab8386b840c85839?src=baiduss1&ocpc_id=125406&plan_id=620343394&group_id=10385893731&keyword=%B9%FA%BC%D2%B0%B2%C8%AB%B7%A8&bd_vid=11203805537150773473 是这个文档? > > 可以再给下:1)使用的抽取模型,2)评测问题集 > > 是的大佬,抽取模型选的是Qwen/Qwen2.5-72B-Instruct,出问题的不是问答,是抽取结果的东西只有4个点,之前0.6版本的时候有很多点 KAG uses the open-source pdfminer to parse the content of PDF documents, which requires high quality of the pdf file...

> > 我也遇到同样的问题。 [@mmMm128](https://github.com/mmMm128) 0.6的时候实体、关系看上去很靠谱;现在没啥关系了,都成实体,完全抽不出关系了。 > > 是的!就是这样,不知道到底是为啥 Using the [example document](https://openspg.yuque.com/ndx6g9/docs/zxh5a5dr03945l1x#ONyLT) provided in the KAG quick start, the extraction model uses qwen2.5 7B, the vector model uses bge-m3, and...

> > 我也遇到同样的问题。 [@mmMm128](https://github.com/mmMm128) 0.6的时候实体、关系看上去很靠谱;现在没啥关系了,都成实体,完全抽不出关系了。 > > 是的!就是这样,不知道到底是为啥 Could you tell us how to reproduce your work, including your docs、llm conf、vector model conf、split_size ?

> 文档正确的读取并进行了知识抽取。使用通义千问官方模型问答可以调取知识库的内容进行回答。 使用本地的ollama模型问答时不管问什么都回答KAG的简介,无法调取知识库的内容回答。 > > ![Image](https://github.com/user-attachments/assets/8533bfb4-1e36-48c9-9c8d-5b041be5bb33) You can follow the [Chat Model Conf of KAG ](https://openspg.github.io/v2/docs_ch) to close thinking: ![Image](https://github.com/user-attachments/assets/148959e6-918b-4435-a36f-a687fdd814e1)

> > > 我也遇到了相同的问题,但是我的不是本地ollma,而是自己本地搭建的vllm,用的模型是qwen3。但是调用硅基流动就不会,也是qwen3。被这个问题困扰了好久没找到如何解决 > > > > > > 应该是在产品端发生的问题。产品端在调用 `SolverMain.invoke()`的时候,使用了 [main_solver.py](https://github.com/OpenSPG/KAG/blob/master/kag/solver/main_solver.py) 中的 `qa()`方法,在回答问题的时候,先调用了 “self_cognition_pipeline”,如果 self_cognition_pipeline 做出了应答,那么就会返回 self_cognition 结果,而这个pipeline 读取了 [kag_intro_zh.md](https://github.com/OpenSPG/KAG/blob/master/kag/tools/algorithm_tool/self_cognition/docs/kag_intro_zh.md),这个文件是数据来源。 > > 这个现象是执行 self_cognition 的返回发生了错误,导致真正的pipeline没有被执行。 > > 除了修改代码,还没有想到其他可行方法。...

> ### Search before asking > * [x] I had searched in the [issues](https://github.com/OpenSPG/KAG/issues?q=is%3Aissue) and found no similar issues. > > ### Operating system information > Linux > > ###...

> ### Search before asking > * [x] I had searched in the [issues](https://github.com/OpenSPG/KAG/issues?q=is%3Aissue) and found no similar issues. > > ### Operating system information > Windows > > ###...