lawlite
lawlite
同,系统10.13.6
When I run: `THEANO_FLAGS='device=gpu0, floatX=float32, nvcc.fastmath=True' /usr/bin/python iGAN_main.py --model_name outdoor_64` ``` Using gpu device 0: Tesla P100-PCIE-16GB (CNMeM is enabled with initial size: 50.0% of memory, cuDNN not available) [n_iters]...
不好意思刚看到,就按照里面的教程来 : https://aplayer.js.org/#/home
> `def handle_photo(): > '''根据图片的文件名处理成需要的json格式的数据 > > ``` > ----------- > 最后将data.json文件存到博客的source/photos文件夹下 > ''' > src_dir, des_dir = "photos/", "min_photos/" > file_list = list_img_file(src_dir) > print(file_list) > list_info = []...
1. loss固定在margin大小说明embeddings聚在了一点,没有区分开,尝试降低learning rate 试试; 2. 另外如果类别很多(这里手写数字之后10个类别应该无碍),输入数据需要进行采样,[查看这里](http://lawlite.me/2018/10/16/Triplet-Loss%E5%8E%9F%E7%90%86%E5%8F%8A%E5%85%B6%E5%AE%9E%E7%8E%B0/#3%E3%80%81%E8%AE%AD%E7%BB%83%E6%96%B9%E6%B3%95)
误差反向传播,最后一层的误差就是预测(前向传播的值)减去label真实值,然后反向传播计算每一层的误差
好久没看都忘记了,你的理解是对的,但是这里最后使用的是交叉熵损失函数,你可以试着推导一下,应该是没错的。
刚做了个实验,代码里是有一个利用梯度的定义检测梯度的函数的,如果代价函数定义为均方误差(没加正则): ``` temp1 = (h.reshape(-1,1)-class_y.reshape(-1,1)) temp2 = (temp1**2).sum() J = 1/(2*m)*temp2 ``` 然后修改 ``` delta3[i,:] = (h[i,:]-class_y[i,:])*sigmoidGradient(z3[i,:]) ``` 这样输出的梯度是正常的 ``` [[ 5.16628040e-03 5.16628041e-03] [ -8.31394759e-06 -8.31394784e-06] [ 5.41669659e-05 5.41669655e-05] [...
当时也是刚学完python没多久写的,应该有好多地方不是最简化的。意思意思