hugefrog
hugefrog
> 我找到解决方法了,执行: sed -i 's/view/reshape/g' mmdet/ops/dcn/src/deform_conv_cuda.cpp 再重新编译(python setup.py develop)即可。 兄弟,牛逼,按照你的方法不报错了。
没有啊,都是默认设置。在哪里可以过滤? ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 日期 | 2024年04月25日 18:13 | | 收件人 | ***@***.***> | | 抄送至 | ***@***.***>***@***.***> | | 主题 | Re: [labring/FastGPT]...
接口是fastgpt和oneapi的啊我没改,我的大模型收到的http request就是那个样子,就只有温度参数。 ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 日期 | 2024年04月25日 20:34 | | 收件人 | ***@***.***> | | 抄送至 | ***@***.***>***@***.***> | | 主题 | Re:...
我没表达清楚吗?那个request是我在fastgpt输入问题问大模型以后,fastgpt生成并由oneapi转到我的大模型api的。我的大模型的http 接口收到的就是那个request,我动都没动,我怎么改。fastgpt和oneapi的代码我也没动过。 ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 日期 | 2024年04月25日 21:14 | | 收件人 | ***@***.***> | | 抄送至 | ***@***.***>***@***.***> | | 主题 | Re:...
框架我是用qwen的open_ai.py基础上改的。 ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 日期 | 2024年04月25日 21:36 | | 收件人 | ***@***.***> | | 抄送至 | ***@***.***>***@***.***> | | 主题 | Re: [labring/FastGPT]...
他这个request这么写的 ---- 回复的原邮件 ---- | 发件人 | ***@***.***> | | 日期 | 2024年04月25日 21:36 | | 收件人 | ***@***.***> | | 抄送至 | ***@***.***>***@***.***> | | 主题 | Re: [labring/FastGPT]...
> > 他这个request这么写的 > > […](#) > > ---- 回复的原邮件 ---- | 发件人 | _**@**_._**> | | 日期 | 2024年04月25日 21:36 | | 收件人 | _**@**_.**_> | | 抄送至 |...
> 可以通过修改history最大储存历史对话数量、使用更小的量化模型来解决爆显存的问题。而且时常clear也可以解决,仔细观察可以发现你clear了之后虽然显存不会下降但在后续多轮对话中也不会上升。我估计是因为显存占用高是因为模型第一次使用的时候标注了这些显存,clear后以前模型占用的显存空间在模型内部释放了,模型后续运行会覆盖这些被释放的空间,但是系统不知道,会一直以为模型占用这么多的显存。 怎么clear?
> torch.cuda.empty_cache() 你不访多执行几次 没用啊
现在这个项目好像合到mmrotate了? https://github.com/open-mmlab/mmrotate