Shane Wang
Shane Wang
No plans at present.
我用2块titan x训练30 epochs的结果。 Method | rml | rmse | log10 | Delta1 | Delta2 | Delta3 -- | -- | -- | -- | -- | -- | -- CSPN...
作者提供的代码从某种意义上确实有作用,不过我们根据论文重写了代码,效果提升了很多。
> @dontLoveBugs 您好, > > > 作者提供的代码从某种意义上确实有作用,不过我们根据论文重写了代码,效果提升了很多。 > > 请问您说的效果提升了很多是用的这个repo的版本吗? 不是,新版本没有提交
> 楼上各位大佬 @dontLoveBugs @yellowYuga @guandog @ArcherFMY ,有谁能讲讲这个eight_way_propagation到底是什么原理吗?我看原文中并没有对这部分的描述啊,以下是我疑惑的地方: > > 1. 我看他输出的guidance是一个b*8*h*w的tensor这个8维的channel是什么含义啊,每维代表8领域中的一个吗,还是纯粹就是8个filter? > 2. 这个eight_way_propagation函数看上去是做了原文中Eq.1的计算,但是为什么他后面要加个max_of_8_tensor把8维最大的那个选出来作为result_depth啊? > 3. 文中提到的iteration我本来的理解是从一个local的位置向8个方向扩撒若干次,例如从(3,3)的位置扩散3次,那么这个信息就扩散到了从左上角(0,0)到右下角(6,6)的矩形区域里,但是看代码的for loop他好像在用同样的guidance在原地连续作用了16次,这个是什么意图啊? > > 请诸位在百忙之中能帮忙提点一下,感激不尽! 我认为,CSPN作者的代码和论文有些出入,8个channel指的是向8个方向传播(和论文中的公式(1)有些出入);16就是扩算16次,每次迭代得到的result_depth是不同的,不是在原地作用。
from lshash import LSHash lsh = LSHash(6, 8, storage_config={"redis":{"host":'localhost',"port":6379}}) lsh.index([1, 2, 3, 4, 5, 6, 7, 8]) lsh.index([2, 3, 4, 5, 6, 7, 8, 9]) lsh.index([10, 12, 99, 1, 5,...
Hi, I suggest you use this pretrained resnet101(link: https://drive.google.com/file/d/1iELk6WeQ1smockQJGKU_DEG6slcqw6Mu/view?usp=sharing).
> Thank you! What are the difference between these two? I saw some renaming of the building blocks in the ResNet backbone. By comparing your code with the corresponding part...
> In my experiments both the two weights does not provide satisfying result, and I am suspecting whether there is anything wrong with my modification of your code (I modified...
> > ``` > > 3\. Maybe you should use adam optimizer. And you should check the crop opteration to prevent outputing crop wrong image, because the image height of...