binarytahr

Results 8 comments of binarytahr

same error warning message, logged-in / logged-out cookies get this same error: Failed to parse JSON: Expecting value in '': line 1 column 1 (char 0)

> `cache` 和 `lru_cache` 应该是用 `==` 对新旧参数进行比较的,部分类型可能不支持。目前 real 模式会对 node 输出附加工作流信息到 `_self_virtual_output` 属性来实现自动保存工作流,理论上可以自定义下 `cache`,用附加的工作流进行比较。这几天我实现一下吧,现在可以先试试用 `cache` 或者手写比较。 谢谢解答,听起来是通过比较 `_self_virtual_output` 而非输入参数来实现,我先去学习一下 cache 的具体玩法。 另外,我发现同样的 fp16 模型在 kaggle 的 Tesla T4 GPU 上推理时,RAM...

> 我之前看到的讨论都是说 ComfyUI 比 diffusers 要快的,配置有问题的可能性比较大。用 torch 2.0 以上,再安装下 xformers 可能会有帮助。另外也可以试试下面这些命令行参数,比如 VRAM 足够的话可以用 `--highvram`: > > https://github.com/Chaoses-Ib/ComfyScript/blob/b5ddc484bcda5d7875ec9e00ffdb085fc0dfd0e3/src/comfy_script/runtime/__init__.py#L72-L147 > > 用法是 `load(args=ComfyUIArgs('--force-fp16', '--highvram'))` 这样。 谢谢~是的,我之前用图形界面的 comfyui 也感觉比 diffusers 要快。 我环境里的 torch...

> `cache` 和 `lru_cache` 应该是用 `==` 对新旧参数进行比较的,部分类型可能不支持。目前 real 模式会对 node 输出附加工作流信息到 `_self_virtual_output` 属性来实现自动保存工作流,理论上可以自定义下 `cache`,用附加的工作流进行比较。这几天我实现一下吧,现在可以先试试用 `cache` 或者手写比较。 我查了一下 `cache` 和 `lru_cache` ,发现它们都不能用于缓存 list 等可变容器,而 comfyui 很多 node 的输出都是 list,虽然可以自定义 `lru_cache` 但是仍然会有浅拷贝的问题。...

❤️ 非常感谢,你反馈的速度好快啊,我先学习一下你的实现方法

thanks for your answer! i am sorry i originally thought it was because the code wasn't adapted for sd 3.5 embedding's operation, now I know it's because the model itself....

相同的症状,启动后输入框和状态栏图标短暂存活几秒后消失,后台进程也关掉了。 version: v2.0.0-beta.2 system: windows 10 x64 `.wox/log` 文件出现三次 `Access is denied`: ```log 2025-04-25 12:22:45.279 G0000001 edbfc8c8-9ff6-4385-b0c1-49272aec6d85 [INF] [Wox] ------------------------------ 2025-04-25 12:22:45.321 G0000001 edbfc8c8-9ff6-4385-b0c1-49272aec6d85 [INF] [Wox] Wox starting 2025-04-25 12:22:45.321...

因为需求描述的不太明确,猜测你好像是要 agent 构建和服务托管。这种要额外支持聊天记录、文档预处理、向量数据库、任务分解计划、外部工具调用等功能,和 API 测试平台的定位差异挺大的。 面向普通用户的比如 字节的 coze,自定义程度更高的 dify.ai flowiseai,或者自己部署 langchain 等开源框架。