binary-husky
binary-husky
调查一下这个问题有多普遍。 https://cdn.jsdelivr.net/gh/binary-husky/gradio-fix@gpt-academic/release/gradio-3.32.7-py3-none-any.whl 如果以上链接打不开,请您在下面留言
可能是那个更新了在线Qwen模型产生的冲突?有没有尝试一下在最新的代码里面修改
现在只有本地版的幻方模型
如果不是飞机场,等一段时间就好了
大佬的pr,之后会测试 https://github.com/binary-husky/gpt_academic/pull/1419
免费的吗?注册有什么要求吗?
https://github.com/binary-husky/gpt_academic/pull/1419
显存的占用和每次输入的token上下文长度有关
> > 显存的占用和每次输入的token上下文长度有关 > > 但是我尝试点击重置按钮,清空上下文,但是显存并不会回收。随着对话轮数的增加,一定会爆显存,我认为这是不应该的,我如何才能清空所有上下文信息而不重启程序。感谢回复! 显存不释放是正常现象,这样能方便pytorch管理显存,避免爆显存的根本还是在于控制上下文长度,这个后面得加个patch
the service on hf is not configured by proxy at all