lcolok
lcolok
> > @halyang92 目前 Docker Compose 的方案是前后端纯本地运行,所以磁盘开销较大,算力要求也比较高,需要 12 GB 或以上的显存。 > > 统计了一下,后端容器占磁盘 15 GB 以上,加上官方所使用的本地大语言模型 InternLM2.5-7b,总磁盘占用是 30 GB 以上。 > > 后端容器所使用的基础镜像是openmmlab所推出的lmdeploy镜像,各个版本的镜像地址:https://hub.docker.com/r/openmmlab/lmdeploy/tags 大语言模型 InternLM2.5 项目地址:https://huggingface.co/internlm/internlm2_5-7b-chat > > 请问,docker compose...
@leodu0926 最新版本可以查看 https://github.com/InternLM/MindSearch/blob/main/docker/README_zh-CN.md 这份文档,里面有一键部署的方法,具体 docker-compose.yaml 位于https://github.com/InternLM/MindSearch/blob/main/docker/msdl/templates/docker-compose.yaml 这个路径下面,目前是作为一份模板来使用它的
> > griffe版本需要降级,在backend.dockerfile里加一句:RUN pip install --no-cache-dir -U griffe==0.48.0 > > 谢谢,griffe解决了,不过打开前端输入问题后,后端日志没变化 > > INFO: Started server process [1] INFO: Waiting for application startup. INFO: Application startup complete. INFO: Uvicorn running...
@k2o333 最新的优化应该能解决您的问题:https://github.com/InternLM/MindSearch/pull/170 ,等待仓库管理员测试并合并代码就可以了。
@xs818818 使用 Qwen 模型的方法我也没有跑通,应该是 mindsearch/agent 这模块下的逻辑问题,包括采用 SiliconFlow 的 API 的情况下,我也只能跑通使用 internlm/internlm2_5-7b-chat 这个模型的情况。