timmmGZ

Results 7 comments of timmmGZ

> 有人能提供一份代码吗 自己加不就好了吗?ResidualBlock不难实现啊,就两个卷积层A D中间加同样输出尺寸的卷积层BC,D的输出=A+D。随便看个文章跟着实现就好了

> 这一块代码不是应该先layer2后sigmoid然后结果作为返回,为什么是先sigmoid后layer2层是返回结果,是误写么? 确实写错了,可能作者笔误,问题不大,但是你的也不是正确的,正确写法是: ``` def forward(self,x): x = self.layer1(x) x = t.sigmoid(x) x=self.layer2(x) return t.激活函数(x) ``` 鉴于作者代码里out_features是1维,那激活函数就肯定不是softmax了,随便选个sigmoid relu...都随你

> 在resnet34中最后用于分类的全连接实现是这样的: > `self.fc = nn.Linear(512, num_classes) ` > 想问一下这里的输入特征维数512应该是算出来的吧,受输入图片大小影响吧? 正解,所以输入图片时要resize

six six six, how you learn Chinese already

> 在seq2seq章节中的编码器小节中,`输⼊ xt 的特征向量 xt 和上个时间步的隐藏状态...,` 建议将其修改为`输⼊数据x^t和上个时间步的隐藏状态,因为在编码器中每个隐藏层的输入是输入数据和上一步的隐藏状态,而不是输入数据的特征向量。 正解,不是输入数据的特征向量。每个隐藏层的输入=concat((输入数据,tanh(上一步的隐藏状态的输出)))

> sklearn 中的LinearRegression模型用的是最小二乘法求解的,不是梯度下降算法。 确实,LinearRegression等于单层神经网络,没隐藏层 算不上MLP。很多人误解了,其实不用梯度下降法。

@maliho0803 it is because dct/idct cant get exact same result, and some rgb vlaue become around (-10,0), moreover if using ycbcr color space, it will be more easy to get...