qin

Results 8 comments of qin

@LJXLJXLJX ,请问如果将这个损失用在分类任务中,在测试阶段,没有label标签,output = (one_hot * phi) + ((1.0 - one_hot) * cosine),我是将phi送入softmax激活函数中,还是cosine送入softmax激活函数中,还是其他的?

本人使用amsoftmax以及arcface的损失函数在分类任务上取得了高于softmax的分类效果(音频分类任务中)。分享给大家,希望有所帮助。 具体的做法: ``` # 在模型最后一层定义一个恒等变换,该层会将输入直接输出 class myNet(nn.Module): def __init__(self): super(myNet, self).__init__() ... self.fc = nn.Identity() def forward(self, x): ... x = self.fc(x) return x ## 训练过程中在网络后面加入损失函数 net = myNet() loss_fn...

对于那些不收敛的情况,可以试着先用softmax进行预训练,等模型获得较好的参数之后,再将softmax换成arcface loss。

您好,请问您有没有成功复现过ECAPA-TDNN?,我这边仅仅使用kaldi的数据增广方法,也没有使用s-norm,仅仅获得了1.35%EER。另外,您论文的第16个参考文献是否存在问题?

学习率和原文一致,具体代码如下: ``` optimizer = torch.optim.Adam( [{'params': model.parameters(), 'lr': 1e-3, 'weight_decay' : 2e-5}, {'params': aamsoftmax.parameters(), 'lr': 1e-3, 'weight_decay' : 2e-4}]) scheduler = torch.optim.lr_scheduler.CyclicLR(optimizer, 1e-8, 1e-3,step_size_up = 65000, \ step_size_down = 65000,mode='triangular2',cycle_momentum...

感谢您分享,是否可以将您的新论文(ICASPP2021)发给我看看,邮箱:[email protected],非常感谢。

https://github.com/speechbrain/speechbrain,这个项目里对ECAPA-TDNN进行了复现,似乎获得了更好的结果。

同问题,我升级了pytorch的版本之后就可以能直接运行了。