xxll88

Results 11 comments of xxll88

same problem [rank0]: TypeError: DeepseekV2ForCausalLM.__init__() got an unexpected keyword argument 'cache_config'

same problem ,how to resolve? 21:56:42,374 graphrag.index.emit.parquet_table_emitter INFO emitting parquet table create_final_community_reports.parquet 21:56:42,376 graphrag.index.emit.parquet_table_emitter ERROR Error while emitting parquet table Traceback (most recent call last): File "/home/lile/microsoft/graphrag/graphrag/index/emit/parquet_table_emitter.py", line 40, in...

> 感谢 @xgl0626 和 @therealcyberlord ,我遇到了同样的问题,并如下更改了代码,现在一切运行正常了 ![image](https://private-user-images.githubusercontent.com/95487306/361539676-b9516f50-295b-4721-abb6-7955a32198c3.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MjUyNjk1OTEsIm5iZiI6MTcyNTI2OTI5MSwicGF0aCI6Ii85NTQ4NzMwNi8zNjE1Mzk2NzYtYjk1MTZmNTAtMjk1Yi00NzIxLWFiYjYtNzk1NWEzMjE5OGMzLnBuZz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDA5MDIlMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQwOTAyVDA5MjgxMVomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPWJjNjVlNjI3NGQxMGJlNDhlZTdlYjc2MWE0MTc4OWRlMDZjNzg4MDgyMmFlNGMzZmRkZGE1OGQzMzhhMjQzZjMmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0JmFjdG9yX2lkPTAma2V5X2lkPTAmcmVwb19pZD0wIn0.C1h4wrfNCUm8_dC8nOcPWvZibe4efCvP0G5YkhQFTuQ) > > ``` > try: > open('./buf.csv','w+',encoding='UTF-8') > data.to_csv('./buf.csv',encoding='UTF-8') > data=pd.read_csv('./buf.csv',encoding='UTF-8') > data['community']=data['community'].astype(str) > > await self._storage.set(filename, data.to_parquet()) > shutil.rmtree('./buf.csv') > except ArrowTypeError...

+1 graphrag is too slow

能不能直接贴中文,到底改哪里,让我抄抄作业行不,看源码太累了

使用qwen2-72b ,多个文件中其中几个文件的回答正确,有几个文件的回答全是幻觉(如只用1个文件也没问题),感觉实体没有提取到,用了max_gleanings to 0也没用, encoding_model: cl100k_base要用吗?

我的情况是vllm加载qwen72,global回答还可以,local明显不对,不清楚原因,为什么要用vllm呢,因为index它太快了,难以置信,这样graphrag才有使用场景,但vllm local search明显不对,1个文件没问题能准确找到相关内容,2个文件以上local search 就找不到相关内容,回答就是幻觉 global能答对,说明整个index过程到最后create_final_documents,all workflow都没有问题 为什么local 找不到相关内容,local search 源码需要调整吗?

> > 我的情况是vllm加载qwen72,global回答还可以,local明显不对,不清楚原因,为什么要用vllm呢,因为index它太快了,难以置信,这样graphrag才有使用场景,但vllm local search明显不对,1个文件没问题能准确找到相关内容,2个文件以上local search 就找不到相关内容,回答就是幻觉 global能答对,说明整个index过程到最后create_final_documents,all workflow都没有问题 为什么local 找不到相关内容,local search 源码需要调整吗? > > 你有遇到JSONDecodeError: Expecting value: line 1 column 1 (char 0} 问题吗,我的llm是qwen2-7b, infer-engine也是vllm 我看每次index日志里最后/community_reports 阶段/是会出现几次: File "miniconda3/envs/autogen/lib/python3.11/json/decoder.py",...

我现在的测试下来,qwen2:72b model_supports_json: false 效果较好 ,log中有少量JSONDecodeErro,换了了llama3.1 70B和Mistral-Large-Instruct-2407-123B-exl2 效果都不行,要么log有大量出错或者回答错误,要么慢,超过2小时,我就放弃不试了 接下来是关注重点: 只有openai embedding 能正确 local search ,global search 效果也较好 两种本地local embedding方式1、llama.cpp 无需改源码  2、ollama embedding 需要改源码  local search 都找不到内容,回答幻觉 ,global search 效果尚可 结论:目前采用 qwen2/vllm...