qiunlp

Results 13 comments of qiunlp

用bert替换后,运行epoch 0 | step 1500 |错误,请问什么原因? '........code/models/reasoner.py", line 69, in forward res.as_strided(tmp.size(), [res.stride(0), res.size(2) + 1]).copy_(tmp) RuntimeError: setStorage: sizes [80, 80], strides [6400, 81], and storage offset 0 requiring a...

好的,谢谢!我试试

在您博文中看到了下面,它在您程序的哪个模块?我初学,请多包涵 # NSP:是否下一句预测, true = 上下相邻的2个句子,false=随机2个句子 # SOP:句间连贯预测,true=正常顺序的2个相邻句子,false=调换顺序的2个相邻句子 if random.random() < 0.5: # 交换一下tokens_a和tokens_b is_random_next = True temp = tokens_a tokens_a = tokens_b tokens_b = temp else: is_random_next = False

谢谢您及时解答我的菜鸟问题。 我想直接调用您预训练好的model去做下游**英语句子顺序**判断,请问是下载哪个链接? 我用下面的代码调用您在网上提供的model,效果与人为判断不一. 请赐教。 from pytorch_pretrained_bert import BertTokenizer from model.modeling_albert import AlbertConfig, AlbertForNextSentencePrediction 加载词典 生成模型标准输入格式,和bert相同 tokenizer = BertTokenizer.from_pretrained('bert-base-uncased') input_ids = convert_examples_to_feature(text_a, text_b, tokenizer) tokens_tensor = torch.tensor([input_ids]) #加载模型 config = AlbertConfig.from_pretrained("./prev_trained_model/albert_base/config.json")...

1) I have download the files:**model.pt,text_encoder.pkl,label_encoder.pkl** 2) python **relation_extraction.py** evaluate --dataset semeval_2010_task8 --test_file ./datasets/SemEval2010/test.jsonl --log_dir ./logs/ --save_dir ./logs/tre_semeval/ --masking_mode None 3) but Traceback (most recent call last): File "/home/qwh/桌面/TRE/relation_extraction.py", line...

[谢谢您的及时回复。windows server 2008 r2 标准版是否支持? ![3](https://github.com/hiroi-sora/Umi-OCR/assets/24563279/89fe9ad7-a756-48f1-8ba0-c3ab79feeb42)

好的,非常感谢啦!!!

非常感谢您的及时回复,待元旦上班后我试试。祝您新年快乐!