yhfgyyf
yhfgyyf
plugin_manager.py 两处目录改下 35 with open("plugins/plugins.json", "w", encoding="utf-8") as f: 改为 with open("./plugins/plugins.json", "w", encoding="utf-8") as f: 56 plugins_dir = "plugins" 改为 plugins_dir = "./plugins"
看上去像是网络问题,查下https://api.chatie.io/v0/hosties/puppet_padlocal_****,掉线前后地址有没有变化
刚想说有没有人搞这个就出来了,👍
群内及好友短时间内连续发消息会封号
我装完了,应该没问题,但是缺少两个权重vae\diffusion_pytorch_model.safetensors和safety_checker\model.safetensors,跑出来的图太差了
same issue , already set IMAGE_PROVIDER=sd HUGGINGFACE_IMAGE_MODEL=CompVis/stable-diffusion-v1-4 HUGGINGFACE_API_TOKEN=hf_*** # my hugging face access tokens (Write) SD_WEBUI_URL=http://127.0.0.1:7860 need to set SD_WEBUI_AUTH? or something wrong else?
> For the 13b model you need to specify --nproc_per_node 2 as per the readme file. However it then fails for me, but differently: > > RuntimeError: CUDA error: invalid...
ollama3.1是哪个版本,ollama最近才出0.3.0版本。 如果是llama3.1,可以使用xinference,按照llama3注册(需要更新transformers和vllm),也可以使用ollama pull llama3.1,但是现在可能还有点问题,主要是rope的问题
应该是llm没有使用glm或者qwen系列大模型,用到了默认的agent prompt, `prompt = hub.pull("hwchase17/structured-chat-agent") ` 这里会联网下载langsmith上的prompt https://smith.langchain.com/hub/hwchase17/structured-chat-agent 报错是因为连不上langsmith,可以把这个prompt直接复制到本地用ChatPromptTemplate类初始化。