NeuralNLP-NeuralClassifier
NeuralNLP-NeuralClassifier copied to clipboard
An Open-source Neural Hierarchical Multi-label Text Classification Toolkit
你好! 相关config如下: "task_info":{ "label_type": "multi_label", "hierarchical": false, "hierar_taxonomy": "data/rcv1.taxonomy", "hierar_penalty": 0.000001 }, "device": "cuda", "model_name": "TextCNN", "checkpoint_dir": "checkpoint_dir_spc", "model_dir": "trained_model_ipc", "embedding": { "type": "region_embedding", "dimension": 300, "region_embedding_type": "context_word", "region_size": 5,...
原始文件中配置如下:"HMCN": {"hierarchical_depth": [0, 384, 384, 384, 384],"global2local": [0, 4, 55, 43, 1]},假设用户的分层只有两层,应该如何配置分层深度的大小和全局到局部的尺寸?
请问这个层次分类支持bert吗?如果可以的话在哪里修改呢?
看咱们HMCN-F的实现代码,标签字典是通过数据集里面标签构造的,比如样本集如下: > case1 A case2 A--A1 case3 B--B1--B11 case4 B--B1 case5 B--B1--B12 那么将会得到标签字典如下: >A A--A1 B--B1 B--B1--B11 B--B1--B12 在训练的时候,一级类目标签有[A],二级类目标签有[A--A1, B--B1],三级标签有[B--B1--B11, B--B1--B12]。 以case3为例,真实标注标签为B--B1--B11 - 在分级标签预测上,一级标类目上标签是[0],二级类目上标签是[0, 0],三级类目上标签是[1, 0]; - 在全局标签预测上,真实类目标签是[0, 0, 0,...