fangpochen
fangpochen
h5py 文件没有吗。这是什么问题
> 我也遇到了acc=0的问题,原因应该是作者在训练加载模型的时候没有加载最后一层RNN层的权重,这当然有利有弊,如果你想要充分利用作者预训练模型的训练结果,可以把模型的所有权重都加上,这样在finetune模型的时候会有比较好的初始效果。 > 我改动了5个地方之后可以正常训练了,可以正常训练。 > 1.if 'rnn.1.embedding' not in name:##不加载最后一层权重 注释掉这一行 > 2.将这一行:from crnn.models.crnn import CRNN 改成: from crnn.crnn_torch import CRNN > 3.如果pytorch版本比较高,将crnn/util.py中loadData函数中的v.data.resize_(data.size()).copy_(data)换成v.resize_(data.size()).copy_(data) > 4.如果wrap_ctc编译不通过,可以采用高版本pytorch原生的ctc,直接将ctc的引用替换成这一句就行from torch.nn import CTCLoss,或者也可以用百度的扩展ctc。 > 5.把训练代码中的val函数里的pred...
> 我也遇到了acc=0的问题,原因应该是作者在训练加载模型的时候没有加载最后一层RNN层的权重,这当然有利有弊,如果你想要充分利用作者预训练模型的训练结果,可以把模型的所有权重都加上,这样在finetune模型的时候会有比较好的初始效果。 > 我改动了5个地方之后可以正常训练了,可以正常训练。 > 1.if 'rnn.1.embedding' not in name:##不加载最后一层权重 注释掉这一行 > 2.将这一行:from crnn.models.crnn import CRNN 改成: from crnn.crnn_torch import CRNN > 3.如果pytorch版本比较高,将crnn/util.py中loadData函数中的v.data.resize_(data.size()).copy_(data)换成v.resize_(data.size()).copy_(data) > 4.如果wrap_ctc编译不通过,可以采用高版本pytorch原生的ctc,直接将ctc的引用替换成这一句就行from torch.nn import CTCLoss,或者也可以用百度的扩展ctc。 > 5.把训练代码中的val函数里的pred...
是和镜像有关吗。我单独使用yaml 文件创建pod。使用的是腾讯的文档创建的pod menghe.tencentcloudcr.com/public/tensorflow-gputest:0.2 这个测试镜像能够做到限制显存。但是,我自己在jupyterhub 的自定义镜像,却无法限制显存。这个有关系吗
Does it have to do with mirror images. I used the YAML file alone to create the POD. The use is Tencent's document created by POD Menghe.tencentcloudcr.com/public/tensorflow-gputest:0.2 this test image...
> Please check if you have override the environment variable LD_LIBRARY_PATH LD_LIBRARY_PATH 这个配置我在哪里查看呢
 
这是我的。配置,并没有找到LD_LIBRARY_PATH 这个配置
 这是我容器内部的 LD_LIBRARY_PATH