Notes
Notes copied to clipboard
:rocket: 笔记
```css scrollbar-gutter: stable; ``` 
```shell pip config set global.index-url https://mirrors.aliyun.com/pypi/simple/ ```
```shell python -m ensurepip --default-pip ``` 卸载 ```shell python -m pip uninstall pip ```
 在插件中装完nodejs插件. 还需要配置如上, 才可以在shell中执行npm相关
还在学习中, 先记录一些关键点 , 稍后补充文字, 形成完整的笔记 ## 遍历3种特征图的每一个像素, 输出tx,ty.tw,th,confidence, classes  tx/ty是特征图中的偏移量, 实际特征图中的每一个像素对应到原图上是多个像素, 所以特征图下的位置bx其实是个小数, 公式如下: `bx = cx + sigmoid(tx)`, 这样保证调整偏差后bx依旧和cx是同一个格子内的点 th/tw是预设锚框缩放的比例, pw/ph是预设锚框的尺寸, 所以`bw = pw * exp(tw)`, 这里是exp是指数运算, 具体为什么用exp我也没太弄明白, 总之就好求导,...
## cuda在官方找对应版本 https://developer.nvidia.com/cuda-toolkit-archive  ## pytorch安装命令每次都会不同, 每次看官方吧. https://pytorch.org/  安装过程中各种报错, 最好就是无脑清空下已有安装,然后在执行pytorch官网提供的命令, 由于网速问题可能需要多次安装才能成功. ``` conda clean -all ``` 最后代码中试下是否安装成功 ```python import torch use_gpu = torch.cuda.is_available() print(use_gpu) ```
 基本网上这张图, 输入为x,输出为f(x)+x, 其中f(x)叫残差, 也就是预测值 - 观测值, 很多文章都提到对等映射, 所以一开始就进入了一个误区f(x)+x = x,怎么可能呢? 视频里一直提梯度消失, 结合多个视频我猜想: **是不是当梯度消失的时候f(x)接近于0, 所以近似于f(x)+x = x, 这时候就是对等映射了, 如果不消失那么就不用管了, 就正常对f(x)+x反向求梯度就行了.** 暂时这么理解吧, 反正能自洽了.
L2范数也就是向量的模,L1范数就是各个元素的绝对值之和
```python c = [i*2 for i in [3,21,67]] print(c) # [6, 42, 134] ``` "[]"里分2部分,后面的循环决定数组内容的长度, 前面是数组每一位的内容.
起初没理解为什么别人的文章中都说多个relu相加后可以形成多个线段形成数据. 主要不理解的就是这句:"**多个relu相加**". 看了[别人的文章](https://www.jianshu.com/p/e34a8679938e), 突然感觉好像懂了, 比如: 1/2层用了relu, 第1层接收的是`relu(x1)`, 那么到了第二次就成了`y2 = W * relu(x1)`, 这里因为W是张量, 那么就变成内积, 就出现了relu求和. 初学, 很多东西都不懂, 这里是个人理解, 不能保证正确, 权当做个笔记.    如果认同了我说的, 再看这个老师的讲解就通透了: https://www.bilibili.com/video/BV1Wv411K7o5?