dify
dify copied to clipboard
Dify is an open-source LLM app development platform. Dify's intuitive interface combines AI workflow, RAG pipeline, agent capabilities, model management, observability features and more, letting you q...
也可以考虑在拆分后的每个段落下面支持一个附加字段,附加字段不参与向量化和检索,但附加字段会合并到上下文里参与问答。 导入的时候支持QA对,对Q进行嵌入,A作为附加字段。 这样做的好处: - 减少向量化片段中过多干扰描述影响召回率,同时又不影响组装后上下文的内容详实性。 - 降低embedding的成本 - 增强复杂问答场景下内容维护的便利性
想看到更多关于本项目的向量检索的思路的介绍 我想找到在哪可以修改Retrievers的逻辑以优化跨文档检索时召回的Node的质量 举粗略的例子,用户提问 昨日有什么餐点可以选择? 我希望能在检索时加入2023/05/16 这个文本,而不是在用户提问里。 举粗略的例子2,用户提问 游泳池的收费标准? 我希望检索后删掉关于VIP收费标准的Node再到llm 以上逻辑我可以自行实现,希望大佬指条明路和思路,谢谢
本地部署要一直保持稳定的梯子挺难
如何配置代理 ip和端口
rt,对docker的了解只是入门。按照步骤做了,但是报了这个错。查了一下,是说运行的层数过多导致,那我把yml的文件里的几行命令用“ && “合并可行吗?大佬捞一捞🥹
Since the applications is prompt based, is it possible to have a marketplace where Dify Cloud users can share applications(and even datasets if they choose to opensource them)?
【环境】腾讯云 日本服务器 【问题】通过docker可以正常启动,可以校验api-key。但是导入数据集时,使用Chat-gpt,系统崩溃。 【尝试次数】2