InternVL icon indicating copy to clipboard operation
InternVL copied to clipboard

[Feature] 还有一个问题,streamlit run app.py启动后无法选择模型

Open lckj2009 opened this issue 1 year ago • 2 comments

Motivation

选择模型那里是灰色的,不能选择,是什么原因呢?麻烦请教一下怎么弄。模型用的是InternVL2-Llama3-76B。路径如下图:

Related resources

请问下图中是不是路径不对?/root/InternVL/InternVL2-Llama3-76B 里面是 OpenGVLab/InternVL2-Llama3-76B 模型文件和其他文件。

Additional context

ubuntulujing

无法选择模型

lckj2009 avatar Aug 09 '24 09:08 lckj2009

还是说,这个私有化部署也只能支持26B模型,不支持 InternVL2-Llama3-76B ???

lckj2009 avatar Aug 09 '24 09:08 lckj2009

是fastapi接口没调试好,调试好后就可以了。

iamyanyanyan avatar Aug 13 '24 08:08 iamyanyanyan

是fastapi接口没调试好,调试好后就可以了。

https://internvl.readthedocs.io/en/latest/get_started/local_chat_demo.html 这里没说要调试 fastapi接口 呀,具体要怎么做呢?我是启动了 Step 2: Start the Streamlit Web Server 和 Step 3: Start the Controller。之后要启动 fastapi吗?在哪里启动

lckj2009 avatar Aug 16 '24 02:08 lckj2009

是fastapi接口没调试好,调试好后就可以了。

https://internvl.readthedocs.io/en/latest/get_started/local_chat_demo.html 这里没说要调试 fastapi接口 呀,具体要怎么做呢?我是启动了 Step 2: Start the Streamlit Web Server 和 Step 3: Start the Controller。之后要启动 fastapi吗?在哪里启动

我是在controller.py里app=fastAPI()加了 @app.get("/") async def read_root(): return('get':200}

对了,你要用76b的模型不用量化模型吗。我用量化的24b显卡都占了大概70G了。 然后我试过如果用量化模型好像不能用streamlit,所以虽然我调试好了streamlit界面但最后还是选择了用lmdeploy+gradio部署的。

iamyanyanyan avatar Aug 16 '24 04:08 iamyanyanyan

是fastapi接口没调试好,调试好后就可以了。

https://internvl.readthedocs.io/en/latest/get_started/local_chat_demo.html 这里没说要调试 fastapi接口 呀,具体要怎么做呢?我是启动了 Step 2: Start the Streamlit Web Server 和 Step 3: Start the Controller。之后要启动 fastapi吗?在哪里启动

我是在controller.py里app=fastAPI()加了 @app.get("/") async def read_root(): return('get':200}

对了,你要用76b的模型不用量化模型吗。我用量化的24b显卡都占了大概70G了。 然后我试过如果用量化模型好像不能用streamlit,所以虽然我调试好了streamlit界面但最后还是选择了用lmdeploy+gradio部署的。

嗯,后来我没用76B,我是直接尝试了mini的4B,之后也尝试了VL2的8B。都可以。24B的话,估计我那显卡撑不住。

lckj2009 avatar Aug 16 '24 07:08 lckj2009

lmdeploy+gradio部署

另外,我之前尝试过 lmdeploy+gradio部署,但是报错了,所以是用其他方式部署的

lckj2009 avatar Aug 16 '24 07:08 lckj2009