LLLLLLoki
LLLLLLoki
text_len_mask = tf.sequence_mask(text_len, maxlen=max_sentence_length) # [num_sentence, max_sentence_length] #tf.logical_and 逻辑且 false ture = false candidate_scores_mask = tf.logical_and(tf.expand_dims(text_len_mask,[1]),tf.expand_dims(text_len_mask,[2])) #[num_sentence, max_sentence_length,max_sentence_length] #生成左上角是True 的方阵[B,M,M] sentence_ends_leq_starts = tf.tile(tf.expand_dims(tf.logical_not(tf.sequence_mask(tf.range(max_sentence_length),max_sentence_length)), 0),[num_sentences,1,1]) #[num_sentence, max_sentence_length,max_sentence_length] candidate_scores_mask = tf.logical_and(candidate_scores_mask,sentence_ends_leq_starts) flattened_candidate_scores_mask...
我知道gold label 是一个(l + 1) * l /2,为什么在选择用上述方法mask candidate_ner_scores,这个过程是怎么推理得到的?为什么不mask 成其他形状,比如右上角全是1 或者右下角
我在蚂蚁金融数据集上 进行flow训练也出现了这种情况
> @LLLLLLoki 你用的是中文预训练模型吗? 是的啊12层中文bert ckpt
怎么获得wiki-news-300d-1M.vec 向量文件