dlluckboy

Results 9 comments of dlluckboy

这个功能能实现挺好,这样选择不同的开头,可以定位搜索不同的知识库

> 这个目前还没有碰到过。秦总,能看出啥问题吗?跟用的显卡有关系吗?

> 这个目前还没有碰到过。 秦总,我在vllm找到了个文章,是不是跟这个有关 https://github.com/vllm-project/vllm/issues/25378

> > 这个目前还没有碰到过。 > > 我这边4090显卡也遇到了这个问题,最后发现使用Qwen3-Next-Instruct-80B-FP8-Dynamic可以正常启动,请问xinference考虑加这个模型吗 我在容器内升级vllm后,可以正常加载模型了

我用的GLM4-CHAT-1m,上下文长度应该都够用啊

下面是所有节点的解雇

> 执行详情每个节点的 输入输出先看一下 能分析出是什么问题吗?

> 看执行详情中最后一次AI对话的提示词太长了,像是模型推理不出来,没有返回内容。 如果分段多一些就没问题,分两个分段就这样。

新版本MaxKB,使用工作流后,本地知识库搜索后,会显示所有命中的分段,是否可以显示第一个命中分段,然后会有其他的分段list可供用户单独现在查看?如果工作流引用AI回答,是否可以查看到都引用了哪些本地知识库分段,并且可以点击查看。 另外执行详情中的知识库检索中,不能点击查看,而且不能全屏查看。