zhgqcn
zhgqcn
其次,目录为链接时,会进行web跳转,而非本页内跳转 
可能跟页脚代码设置有关,只能进行h2. h3的显示,而忽略和h1 
Mark ! I have the same question, looking forward to your answer.
> I want to pre-train multilingual BERT using the existing mBERT weights. I have tried to find it but I could not find any mention of how mBERT was pre-trained....
the code can run normally, so I don't know where is wrong.
Do you solve the problem? 
请问你解决这个问题了吗 @fengge123
> Solved 您好,请问如何解决的。 我是直接读取RGB(复制2个通道)然后获取单个通道,即`img[:,:,0]` 但是在做扩增时会有问题,不清楚为什么源码里面augment采用了`cv2.flip(img, 1, img)`多了一个参数导致的,我修改了可以。 ```python def _augment(img): if hflip: # horizontal cv2.flip(img, 1, img) if vflip: # vertical cv2.flip(img, 0, img) if rot90: img = img.transpose(1, 0,...
> @zhgqcn 静态图的参数是通过网络学习获得的,在训练完毕之后,静态图的参数就 fix 了。即在测试阶段:**静态图是对所属输入数据共享的** 明白了。这种静态图真的能够学习到论文中提到的静态图标签之间的全局关系吗? 您有没有尝试过ML-GCN利用training set利用标签预先定义Graph的邻接矩阵 
> 该工作就是受 ML-GCN 的启发,在该工作早期有对比过:直接利用 ML-GCN 提供的邻接矩阵不如学习获得的结果。 感谢您的回复。我还有个问题,基于GCN的计算中,邻接矩阵的值对结果的影响大吗?很多工作的邻接矩阵是[0,1]二值化的,而您用学习的方法得到的邻接矩阵是0-1之间的离散值矩阵,这种对于GCN的卷积计算的结果应该会特别大吗?  