csy
csy
特征编码问题请教
您好,根据您的文档和svm_train.py的文档,每个文本最后就是表示成类似这样的吗?(每个)[{'试试': 'True', '正': 'True', '礼': 'True', '人品': 'True', '专': 'True', '力': 'True', '事': 'True', '玩耍': 'True', '说': 'True', '博': 'True', '微': 'True', '[酷]': 'True', '享': 'True', '奖品': 'True', '领取': 'True',...
您好,请问根据eval.py的代码,打开了matrix_path的文件却并未进行写入,请问是为什么呢? 谢谢您啦! https://github.com/Determined22/zh-NER-TF/blob/81136cab7f9d318e7e9e7ef0961ef9f787fad1a8/eval.py#L23
https://github.com/zhaoyingjun/TensorFlow-Coding/blob/0034d92e17f164b86accac3c49826dab0ce79fa6/lessonOne/imgClassifierWeb/cnnModel.py#L152 老师您好,我是听了小象学院课程的学生,关于这行代码有两个问题想请教: 1. 根据tf.nn.sparse_softmax_cross_entropy_with_logits的[文档](https://www.tensorflow.org/api_docs/python/tf/nn/sparse_softmax_cross_entropy_with_logits),label可以直接放入数值化的标签结果,请问您这里为什么做了One-hot处理呢? 2. 根据tf.nn.sparse_softmax_cross_entropy_with_logits的[文档](https://www.tensorflow.org/api_docs/python/tf/nn/sparse_softmax_cross_entropy_with_logits),这里的logits应该是未经softmax处理的结果(这个函数会进行softmax操作),您这里输入的为什么是经过softmax后的值呢? 初学请教,理解错误之处请您谅解;万望回复,谢谢啦!
您好,请问为什么特征偏离会对比赛数据结果提升比较大呢?groupby_list是根据什么来确定呢? 感谢您的分享!
Source code of AAAI2018 Graph Convolutional Networks with Argument-Aware Pooling for Event Detection
Hello ! I am a student who is new in Event Detection and I've read your paper in AAAI2018《Graph Convolutional Networks with Argument-AwarePooling for Event Detection》, which inspired me much....
您好!感谢您精彩的论文及分享的代码! 请问论文中报告的实验结果是使用BERT还是仅用Transformer的呢? 期待您的回复!
hello, Did you use all the sentences including those with events and without events for train/test/dev , or just use the sentences with events for train/dev/test? Thank you!
代码开源
您好,有幸拜读您的论文,受益匪浅,请问方便开源代码吗?非常感谢! 祝安!
Hello, I encountered some trouble when running your code and would you please give me some suggestion? When I run **"java -jar removeXmlTag.jar [source_path] [source_without_tag_path]"**, I can only get 25...
您好,我在试图提取您给的百度网盘数据学习的时候发现提取码有误,您可以再分享以下吗?非常感谢!