Belee05
Belee05
> I changed it to this: `test: ["CMD-SHELL", "curl -s http://localhost:3000/api/status | tee /dev/stderr | grep '\"success\":\\s*true' || exit 1"]` It worked for me.
> 请问您解决这个问题了吗 没有。我在`MODEL_ROOT_PATH`中加了模型的路径,启动时也显示加载路径了,但还是会报错。 最后一行报错:`RuntimeError: Internal: could not parse ModelProto from /Users/ken.li/PycharmProjects/Langchain-Chatchat/chatglm3-6b/tokenizer.model` 在issue中看到机器人回复修改`tokenizer_config.json`,里面的内容原本就是: ``` "auto_map": { "AutoTokenizer": [ "tokenization_chatglm.ChatGLMTokenizer", null ] }, ``` 不知道哪里有问题