BertGCN icon indicating copy to clipboard operation
BertGCN copied to clipboard

Results 22 BertGCN issues
Sort by recently updated
recently updated
newest added

作者您好,我看BertGCN的build_graph文件中的创建文档特征矩阵和词向量矩阵时,都是用0去初始化,对吗,那我可不可以使用bert-base去初始化词向量和文档向量呢?

您好,我看了您的这篇论文,论文中提到,文档是通过bert进行初始向量,而单词直接是0,所以我有一个疑问,如果单词的初始值为0,在后续传递信息的时候是否还是0。或者单词在图卷积的过程中是否能够提供有效信息?谢谢。

您好,我运行python finetune_bert.py --dataset R8和python train_bert_gcn.py --dataset R8 --pretrained_bert_ckpt None -m 0.7会出现这个错误,构图没问题,请问这个问题怎么解决

"C:\Users\harden13hr\anaconda3\envs\pytorch310\lib\site-packages\dgl\backend\pytorch\tensor.py", line 352, in zerocopy_to_dgl_ndarray_for_write assert input.numel() == input.untyped_storage().size(), "Cannot convert view " \ AssertionError: Cannot convert view tensors to dgl ndarray for write. 这是什么问题造成的,我跑的是R8数据集

with open("data/ind.{}.{}".format(dataset_str, names[i]), 'rb') as f: FileNotFoundError: [Errno 2] No such file or directory: 'data/ind.20ng.x'

作者大大你好 我复现了一下打码 跑的20ng数据集 因为显存问题把batchsize改成了4 然后结果比论文小了1.9 请问这种情况是单纯的batchsize的问题还是别的什么原因 谢谢作者

作者您好,小弟在阅读论文时记得特征输入是上面Xdoc下面为0矩阵的一整个矩阵,但是看代码上: ``` input_ids, attention_mask = encode_input(text, model.tokenizer) input_ids = th.cat([input_ids[:-nb_test], th.zeros((nb_word, max_length), dtype=th.long), input_ids[-nb_test:]]) ``` 似乎零矩阵的下面,还有一部分从BERT做文档嵌入后的结果,这是为何呢?感谢!

您好,我这边有个小小的疑问,为什么单词节点不用glove之类的词向量进行初始化呢,您有做过相关的实验吗

我看了构件图的代码和训练文件中的更新节点特征的代码,单词的特征维度是300,文档的特征维度是bert的输出768,这样单词和文档的维度就会不同通,那整个图的特征矩阵是300维度还是768呢,构件图时是300。这里有点疑惑,求指教。