能否使用本地的 ollama 来调用大模型进行解析呢?
如题
api地址写你本地的 apikey不用填 试试呢
之前试过,但是没生效。不知道是哪个字段填的不对,有么有可以参考的示例呢?
你自己curl 或者其他方式 测试下api能用不
看是这个工具的问题 还是你的本地api没成功运行
本地运行了
我也测试了本地的 api ,而且我本地的 dify 一直在用,是正常的
可以给一下调用本地 ollama 的填写示例嘛?
好像是还不支持 目前在开发计划中
哦这样。好的老板。可以加您个v嘛
我加你吧
LeeDebug
请问是怎么用的呢