FlyingCat

Results 12 comments of FlyingCat

Could you add the Description of creating the db by your codes to readme.md .I have the same question. I want create it by the codes. But the readme.md didn't...

你没搞懂全连接层的结构,此三层结构中只有两个全连接层。比如第一个全连接层l,连接输入层和隐藏层,则其输入是节点1~3的输出ai,i为1~3,输出是节点4~7的输出ai,i为4~7,权重为输入到隐藏层的连接权重,其误差项应为输入节点的误差项,该层下一层l+1的误差项应为该层(l层)输入乘以权重后的这个值的误差,也就是激活器的输入的误差

channel数与输入的深度相等,filter的个数与输出的深度相等,没毛病

我的也是,后来发现读取的数据就是int型的,根本不需要用to_int,直接删去就好了,另外读取的数据是list,我在后面激活器返回误差的时候出现问题,output(1-output)显示不能用int减去list,后来把list转换为np.array就好了,建议在读取数据的时候,就将get的数据修改为np.array

你也可以写成E_d对a^{l}求偏导,再乘以a^{l}对a^{l-1}求偏导,再乘以a^{l-1}对net^{l-1}求偏导,链式求导法则没毛病呀

我之前也有疑问,但这个并不是根据之前的公式逆推过来的,而是根据误差反向传递的规律推出来的,推导过程中只围一圈0,是因为w的宽度是2,如果w的宽度是n,则应该围n-1圈0,也就是zp的表达公式

function backward should be modified: self.W_grad = np.array(mat(delta_array).T * mat(self.input)) I suggest you change the list format of the data(train and test) to an array type. np.array(data)

def predict(self, input_vecs): ''' 输入向量,输出感知器的计算结果 ''' output = np.dot(input_vecs, self.weights) + self.bias return element_wise_op(output, self.activator) def element_wise_op(array, op): ''' 对数组进行element wise操作 ''' #只有一个样本array是数而不是数组 if not(array.shape): return op(array) else: return [op(array[i])...

> Hi! Thank you guys for the tool and the example. I've been trying to reproduce 'progressive layer dropping' on Roberta and other pretrain methods, but I didn't found where...