panqiao
panqiao
在完成一张图片的标注点击submit,标完后面回头改这张图片的,点击update后查看show task source确发现标注根本没有更新,导致一张图片中出现了多个“看不见”的标注。
Traceback (most recent call last): File "D:\mysoftware\anaconda\envs\rtmdet-sam\lib\site-packages\rest_framework\views.py", line 506, in dispatch response = handler(request, *args, **kwargs) File "D:\mysoftware\anaconda\envs\rtmdet-sam\lib\site-packages\django\utils\decorators.py", line 43, in _wrapper return bound_method(*args, **kwargs) File "D:\mysoftware\anaconda\envs\rtmdet-sam\lib\site-packages\label_studio\data_export\api.py", line 183, in...
请教一下,ChaGLM | zero2 | No | No | 1 | 1560 | 1 | 45G 注意到lora方式微调仍然需要45G的显存,好像并没有像有些博文里面写的lora方式微调可以忽略 lora部分的梯度、后向传播等显存占用,只需要模型本身的显存占用一样(模型好像是6B的,需要12G或者24G),为什么使用lora微调仍然需要这么大的显存呢
显存占用提问
可以分享一下lora方式微调占用多少显存吗,以及不同的参数对占用显存的影响吗