ai123
ai123
暑期已过半@c121914yu
不用py 外面调用就行了 ---原始邮件--- 发件人: ***@***.***> 发送时间: 2024年9月3日(周二) 中午12:37 收件人: ***@***.***>; 抄送: ***@***.******@***.***>; 主题: Re: [labring/FastGPT] 可以加入python代码的处理功能吗? (Issue #1675) 暑期过完啦😂 😂没机会了,没人会用 py — Reply to this email directly, view it on...
我测试的效果是无论model使用什么名字都会去找whisper-1
一样。 ImportError: [address=0.0.0.0:38381, pid=406] cannot import name 'Qwen2VLForConditionalGeneration' from 'transformers' (/usr/local/lib/python3.10/dist-packages/transformers/__init__.py)
> 问题分类+工具调用,就能实现上述需求吧 问题分类+工具调用理想很好,但是无法有效的进行多轮持续对话,后面的对话会重新进行分类,不知道自己是不是用的不对
多agent什么意思 要实现什么功能 ---原始邮件--- 发件人: ***@***.***> 发送时间: 2024年10月21日(周一) 上午9:22 收件人: ***@***.***>; 抄送: ***@***.******@***.***>; 主题: Re: [labring/FastGPT] 能添加多agents功能需求嘛 (Issue #1793) 同问,现在有多Agent需求,fastgpt无法实现 — Reply to this email directly, view it on GitHub, or...
通过什么调用的?maxcontent maxresponse怎么设置的
config文件设置下参数
希望页面能够支持html宣言,以便解决表格合并、复杂图形输出等问题,echarts如果配合html很多复杂场景的统计图表无法显示
跟ollama的五分钟应该没关系,ollama的五分钟是指模型不工作五分钟后释放,你这个不属于是个限制 ---原始邮件--- 发件人: ***@***.***> 发送时间: 2025年2月17日(周一) 上午8:45 收件人: ***@***.***>; 抄送: ***@***.******@***.***>; 主题: Re: [labring/FastGPT] 问答拆分似乎有问题,隔段时间ollama ps里面的模型就变成stopping,即便设置了forever也不行,必须要重启oneapi才可以重新运行 (Issue #3747) 知识库又不能操作模型,怎么可能影响 ollama 系统? 问答拆分不是操作模型了吗 😂调用模型而已,怎么能操作模型状态 是的,我也觉得奇怪,但是排查了几次,问题具体说是这样的,就是如果知识库选择了很多问答拆分,发现显卡会运转一阵子(5~10分钟)就停止了,就是只索引了一部分,检查了显卡没啥问题,于是我一开始怀疑是ollama本身模型是5分钟内不活动的话就自动销毁,有可能是我一下子给的文档太多,索引或者读取需要时间或者数据库速度慢可能间隔超过了5分钟销毁了,于是我就设置了forever,但是还是出现了这个问题,然后看oneapi的日志,发现会有model ratio not found 这些,但是模型是存在的,有时候重启一下oneapi就又可以,但是也是拆分5~10分钟又卡住了,就是问答拆分总是无法一次性完成,但是dify的话就没这个问题,显卡一直都是跑着直到拆分结束 — Reply...