small bird
small bird
> 我测试的时候是用固定的320*320,mnn推理可以检测到结果。但是,我继续将模型用mnn工具量化成int8之后,就完全检测不到目标了。我确定我的json文件配置是正确的。因为,我给其他同事转了一遍其他算法的模型,量化后,同事可以检测到。很奇怪。
> > > nanodet 在训练时应该没有和GUI相关的调用 这个警告每次都出来,(train.py:34): Gdk-CRITICAL **: 10:35:14.994: gdk_cursor_new_for_display: assertion 'GDK_IS_DISPLAY (display)' failed
> 图片竖向可以检测到目标,旋转调整为横向保存,检测不到目标; 再旋转成竖向,又可以检测到目标。奇也怪哉,应该修改什么训练参数? 是你训练的时候,没有旋转的数据增强吧?
> > arm板支持vulkan驱动就行,不需要安装。只要用的ncnn是vulkan版本就可以了。 > > ncnn-android-vulkan.zip | android 静态库/动态库,支持 GPU | armeabi-v7a + arm64-v8a + x86 + x86_64 这个可以再arm板上用吧 您好,ncnn在linux-arm环境下编译vulkan时,从哪里下载vulkan?我用的是高通芯片,只不过是linux系统的。
> Your expectation is absolutely reasonable, @tjasmin111. Even seemingly straightforward changes like string parsing need to be tested thoroughly to ensure they integrate seamlessly with the rest of the system,...
> 我运行deeplabv3+的时候,训练一直卡在Epoch 1/200: 0%|不动弹了,用debug看了一下,发现是停在event_file_writer.py里面的data = self._queue.get(True, queue_wait_duration)这一行了,请问有大佬知道是什么原因吗? 我也是出现类似情况。使用多个GPU训练,在第一个epoch时候,花了很长时间,大概十几分钟。之后速度就快一些了。但是偶尔会报错:Some NCCL operations have failed or timed out. Due to the asynchronous nature of CUDA kernels, subsequent GPU operations might run on corrupted/incomplete...
> 这个问题我已经解决了,不过忘了当初是怎么搞定的了。另外我建议不要放在多个GPU上训练,我之前放在多个GPU训练的效果比放在1个GPU上的低了1%,具体原因我也搞不明白 > […](#) > ------------------ 原始邮件 ------------------ 发件人: "small ***@***.***>; 发送时间: 2024年3月18日(星期一) 中午11:09 收件人: ***@***.***>; 抄送: ***@***.***>; ***@***.***>; 主题: Re: [bubbliiiing/deeplabv3-plus-pytorch] 请问训练时为什么会卡在第一个epoch不动呀? (Issue #92) 我运行deeplabv3+的时候,训练一直卡在Epoch 1/200: 0%|不动弹了,用debug看了一下,发现是停在event_file_writer.py里面的data = self._queue.get(True, queue_wait_duration)这一行了,请问有大佬知道是什么原因吗? 我也是出现类似情况。使用多个GPU训练,在第一个epoch时候,花了很长时间,大概十几分钟。之后速度就快一些了。但是偶尔会报错:Some...
> 跟数据集大小没啥关系吧,训练所占用的显存只跟模型大小和输入图像的分辨率有关,即使数据集里的图像数量很多也不会爆显存的。另外多个GPU同时训练会让训练效果下降是我重复实验了七八次后得出的结论 > […](#) > ------------------ 原始邮件 ------------------ 发件人: "small ***@***.***>; 发送时间: 2024年3月18日(星期一) 中午11:16 收件人: ***@***.***>; 抄送: ***@***.***>; ***@***.***>; 主题: Re: [bubbliiiing/deeplabv3-plus-pytorch] 请问训练时为什么会卡在第一个epoch不动呀? (Issue #92) 这个问题我已经解决了,不过忘了当初是怎么搞定的了。另外我建议不要放在多个GPU上训练,我之前放在多个GPU训练的效果比放在1个GPU上的低了1%,具体原因我也搞不明白 … ------------------ 原始邮件 ------------------ 发件人: "small @.>; 发送时间:...
> 跟数据集大小没啥关系吧,训练所占用的显存只跟模型大小和输入图像的分辨率有关,即使数据集里的图像数量很多也不会爆显存的。另外多个GPU同时训练会让训练效果下降是我重复实验了七八次后得出的结论 > […](#) > ------------------ 原始邮件 ------------------ 发件人: "small ***@***.***>; 发送时间: 2024年3月18日(星期一) 中午11:16 收件人: ***@***.***>; 抄送: ***@***.***>; ***@***.***>; 主题: Re: [bubbliiiing/deeplabv3-plus-pytorch] 请问训练时为什么会卡在第一个epoch不动呀? (Issue #92) 这个问题我已经解决了,不过忘了当初是怎么搞定的了。另外我建议不要放在多个GPU上训练,我之前放在多个GPU训练的效果比放在1个GPU上的低了1%,具体原因我也搞不明白 … ------------------ 原始邮件 ------------------ 发件人: "small @.>; 发送时间:...
> 博主您好!您的代码对我帮助很大!我在VS上跑通了您的代码。我发现vit_b模型的精度不是很高,我想尝试使用vit_h模型。但是目前只将pth模型转为了onnx模型,想请教您如何将onnx模型转换为ncnn模型? ncnn官方有说明呀,是你按照说明转的模型不能用吗?