shadow
shadow
> is it poosible to use mixlab on remote network adress ? 使用https访问
需要把模型下载到llamafile 目录里,readme.md里有写下载哪些
> 此功能需要llama-cpp-python库支持吗? > 如果碰到安装失败,可以尝试手动安装 ``` ../../../python_embeded/python.exe -s -m pip install llama-cpp-python --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cu121 ../../../python_embeded/python.exe -s -m pip install llama-cpp-python[server] ```
> 颜色选择器上没有吸管。 
看不出来是什么节点
试试8189这个端口访问
>  If i delete file RembgNode.py loading normal but warning...  估计是在安装 pip install rembg[gpu],可以试试手动安装依赖库
> cmd调试端  app生成  > > comfyui工作流为(均为官网最新):  > > 浏览器的调试信息为  看起来 filename不太对,你可以去掉看看
应该是workflow上用了这个节点,删掉这个节点?用mixlab里的 CLIPSeg_ 替换下看看