Ume-technology

Results 13 comments of Ume-technology
trafficstars

代码里面不是可以看出来么? 这个 issue 的问题是想问什么. 我处理的时候数据有点问题, 我看看是不是我的问题.

`Some weights of the model checkpoint at C:\BaiduNetdiskDownload\bert-base-chinese were not used when initializing BertCrfForNer: ['cls.predictions.decoder.weight', 'cls.seq_relationship.bias', 'cls.predictions.transform.dense.weight', 'cls.seq_relationship.weight', 'cls.predictions.transform.dense.bias', 'cls.predictions.bias', 'cls.predictions.transform.LayerNorm.bias', 'cls.predictions.transform.LayerNorm.weight'] - This IS expected if you are initializing...

大哥,您终于想起来账号密码了啊🤔。 暂时不用了,因为这个项目已经搁置好久了,我暂时起不来。但是这个项目还会再捡起来。到时候如果有问题再来请教,希望那时候大哥多多赐教。祝好呀~

我没有明白上述方法中的第一行在反向传播过程中为什么会是 `self.layers[-1].activator.backward(self.layers[-1].output) * (label - self.layers[-1].output)` 括号中这样的数据计算

最近我回头看反向传播的过程. 在全连接神经网络的反向传播的实现代码部分 (class NetWork): def calc_gradient(self, label): delta = self.layers[-1].activator.backward(self.layers[-1].output) * (label - self.layers[-1].output) for layer in self.layers[::-1]: layer.backward(delta) delta = layer.delta return delta. 结合文章, 我没有看明白求解梯度的这个第一行代码是在计算什么. 按照反向传播的起点来算, 应该是从损失函数开始算起, 但是这个求解梯度的方法并没有从损失值还是计算, 而是从输出层的神经元的激活结果开始算起,...

我所疑惑的数据增强的问题. 是参考了论文, 因为我看到在论文中给出了一些 mask 方式做数据增强. 我找不到这个过程实现在哪里.

另外老师再请教一个问题,我不是太明白整个代码的测试过,因为我现在在做的是先把流程跑通。我把您发布出来的re-train的model文件放在了 test.py --model 参数下。但是如下的代码我没看懂,为什么在测试阶段,您需要读取 all-labels 数据呢?另外 structure_im 这个数据集我也没看懂。我知道我还有很多细节没注意到导致这些问题的产生。但是还是希望老师先给予我一些明确问题的指点。 ` gt = cv2.imread(self.data[index].replace('all_images', 'all_labels')) gt = cv2.cvtColor(gt, cv2.COLOR_BGR2RGB) ### structure ### structure_im = cv2.imread(self.data[index].replace('all_images', 'structure_im')) structure_im = cv2.cvtColor(structure_im, cv2.COLOR_BGR2RGB)`

感谢老师的答复。昨天怎么都没看懂您readme中提及的Structure Extraction,我会再去学习。再次谢过! Chongyu-Liu ***@***.***> 于2023年3月29日周三 09:12写道: > labels读了没用上,你可以不读或者随便设个对象。structure需要自己去转,参考readme,而且我那里也有提供测试数据可参考 > > Ume-technology ***@***.***> 于2023年3月28日周二 12:02写道: > > > 另外老师再请教一个问题,我不是太明白整个代码的测试过,因为我现在在做的是先把流程跑通。我把您发布出来的re-train的model文件放在了 > > test.py --model 参数下。但是如下的代码我没看懂,为什么在测试阶段,您需要读取 all-labels 数据呢?另外 > > structure_im 这个数据集我也没看懂。我知道我还有很多细节没注意到导致这些问题的产生。但是还是希望老师先给予我一些明确问题的指点。 >...

老师您好,我已经尝试了获取structure数据的算法代码,我看到这个算法的实现是基于matlab,我刚好本地安装了matlab engine,但是我在运行这个Structure Extraction from Texture via Relative Total Variation给出的matlab代码时,我的整体执行逻辑如下,以及爆出如下错误: `>>> eng.Demo(nargout=0) 'padarray' Image Processing Toolbox tsmooth>computeTextureWeights ( 67 ) fx = padarray(fx, [0 1 0], 'post'); tsmooth ( 54 )...

感谢老师的指点。我在上述项目找到了更清晰的代码执行过程。 非常感谢老师的指点与帮助!