nooooom

Results 3 comments of nooooom

> abetlen/llama-cpp-python#471 我确定当时只有我一个人在请求,并没有并发,因为是我自己部署的模型,没有其他人知道这个服务,会不会是有其它 BUG 导致了并发🤣 在我发送了上边的 issue 之后,我把 stream 设置为 false 也会报这个错,最后重启了 xinference 和模型后才恢复正常。

> 我没试过。。子应用把AI回复和变量合成一个json返回,然后在父应用里更新? 这个方案刚才试了一下,效果比较依赖模型能力,如果模型返回的 json 格式不正确就会出问题。后续有没有计划支持返回子应用的全局变量,类似这样😂: ![image](https://github.com/user-attachments/assets/767d2b83-e0ab-4605-9596-e509e77aa82b)

> [@nooooom](https://github.com/nooooom) 父工作流设置全局变量 sn,子工作流也设置全局变量sn,然后在子工作流中更新sn,父工作流引入子工作流,同时设置子工作流sn为全局变量sn,这样就可以了 感谢回复,这是 1 年前的 issue 了,我们已经转到 Dify 平台了。