linnn
linnn
ParallelLogQA 就是这个功能,可以看下
> 我暂时解决了这个问题。我将相关句子按照限定长度分组生成搜索查询词,然后取了查询词的并集作为最终的搜索查询词。 请问如何修改代码
> 好像直接用Assistant就可以,参考assistant_rag.py, 设置一下rag_cfg的‘parser_page_size’参数。 这更多是用RAG进行检索总结,是针对全文,我需要的是100k token的长文本,现在我需要每5k总结一次,输出20条结果。
> 您好,这里的问题是keygen的输入过长。https://github.com/QwenLM/Qwen-Agent/blob/main/qwen_agent/agents/doc_qa/parallel_doc_qa.py#L91 > > parallel-docqa-agent的使用场景是文本问答,主要针对文档中的某个具体问题的问答,且未针对"总结/全文纠错/改写全文"等场景做优化。对于超长文本来说,如果所提的问题需要遍历全文,且每个member预期都会有输出(例如总结全文),这时会导致member_res拼接过长。此时,我们不建议keyword-gen会有超长输入,因为对于长文本,提取keyword的效果也不够理想。那么在后续阶段的keyword_gen以及keyword_search就会受到影响 > > 对于keygen输入限制问题,我们有做新的设置和改动,稍后会更新代码。 > > 对于超长文本“总结/全文纠错”等场景的优化,我们可能会在将来开放新的Agent处理。 请问修改了吗
选择agent的作用是什么? 
如何限制历史记录的轮次呢。当我使用长文本的时候,会出现 Error code: 400. Error message: The input messages exceed the maximum context length (8000 tokens) after keeping only the system message and the latest one user message (around 8243...
推荐对话中的内容消失了。
pip install "gradio==4.21.0" it's useful
> 也无法解析 doc 文件 > >  so,how to fix it, i have a same problem
i want use chinese to write docsting.