Zhihu
Zhihu copied to clipboard
知乎看山杯 第二名 解决方案
你好,我想请教一下,你模型之间的boosting机制是怎么体现的呢?我在看你的Boost.py等相关代码,并没有看到Boosting的传递过程,只看到模型的最终叠加,很好奇这部分是怎么实现的
tks,fastText模型在Embedding层之后有个TimeDistributed,不太清楚这层的作用。而且发现你的三个模型里都会有这一步。pytorch小白,针对这个点可以详细解答下吗(这块维度变化也不太懂) 不胜感激~~ self.tdfc1 = nn.Linear(D, 512) self.td1 = TimeDistributed(self.tdfc1) self.tdbn1 = nn.BatchNorm2d(1) self.tdfc2 = nn.Linear(D, 512) self.td2 = TimeDistributed(self.tdfc2) self.tdbn2 = nn.BatchNorm2d(1) self.fc1 = nn.Linear(1024, 512) self.bn1 = nn.BatchNorm1d(512) self.fc2...
你好前辈,请问 char_embed_file = '../ieee_zhihu_cup/char_embedding.txt' word_embed_file = '../ieee_zhihu_cup/word_embedding.txt' char_alphabet, char_embed_mat, unknown_char_idx, dummy_char_idx = parse_embed(char_embed_file) word_alphabet, word_embed_mat, unknown_word_idx, dummy_word_idx = parse_embed(word_embed_file) 中char_embed_file这个文件是如何得到的,代码在程序中有吗。这个文件里的内容是如何生成的呢?
您好,我想请问下,当使用boost模式的时候,你得到上一层error_per_class / sample_per_class作为这一层的损失函数权重,请问你是如何处理error_per_class / sample_per_class的nan值和无穷大值呢