铁皮饭盒

Results 102 issues of 铁皮饭盒

> 收到, 身份证上就带"."啊? > > > 中文姓名这样判断是有问题的 我的朋叫 古丽米热·艾比布力 身份证就是这样 这样的正则就错误了吧 不是 . 是中文的 · _Originally posted by @WuYunlong in https://github.com/any86/any-rule/issues/294#issuecomment-1715007092_

```css scrollbar-gutter: stable; ``` ![image](https://github.com/any86/Notes/assets/8264787/94376542-bf6b-43d7-a1f8-2573e9be71a8)

```shell pip config set global.index-url https://mirrors.aliyun.com/pypi/simple/ ```

```shell python -m ensurepip --default-pip ``` 卸载 ```shell python -m pip uninstall pip ```

![image](https://github.com/any86/Notes/assets/8264787/b7460729-9762-4d4f-a67a-73270ef4ead6) 在插件中装完nodejs插件. 还需要配置如上, 才可以在shell中执行npm相关

还在学习中, 先记录一些关键点 , 稍后补充文字, 形成完整的笔记 ## 遍历3种特征图的每一个像素, 输出tx,ty.tw,th,confidence, classes ![image](https://user-images.githubusercontent.com/8264787/216874487-6508078b-d1a7-400b-8eba-38da5c085c2e.png) tx/ty是特征图中的偏移量, 实际特征图中的每一个像素对应到原图上是多个像素, 所以特征图下的位置bx其实是个小数, 公式如下: `bx = cx + sigmoid(tx)`, 这样保证调整偏差后bx依旧和cx是同一个格子内的点 th/tw是预设锚框缩放的比例, pw/ph是预设锚框的尺寸, 所以`bw = pw * exp(tw)`, 这里是exp是指数运算, 具体为什么用exp我也没太弄明白, 总之就好求导,...

## cuda在官方找对应版本 https://developer.nvidia.com/cuda-toolkit-archive ![image](https://user-images.githubusercontent.com/8264787/213921337-33da59d6-22f1-4c66-8f54-5afa263a3bda.png) ## pytorch安装命令每次都会不同, 每次看官方吧. https://pytorch.org/ ![image](https://user-images.githubusercontent.com/8264787/213921312-f043e31f-2cc8-4cb6-b3d9-e488f77403e8.png) 安装过程中各种报错, 最好就是无脑清空下已有安装,然后在执行pytorch官网提供的命令, 由于网速问题可能需要多次安装才能成功. ``` conda clean -all ``` 最后代码中试下是否安装成功 ```python import torch use_gpu = torch.cuda.is_available() print(use_gpu) ```

![image](https://user-images.githubusercontent.com/8264787/212646649-7b5311b1-ce3c-46e8-9ccd-dce81e201463.png) 基本网上这张图, 输入为x,输出为f(x)+x, 其中f(x)叫残差, 也就是预测值 - 观测值, 很多文章都提到对等映射, 所以一开始就进入了一个误区f(x)+x = x,怎么可能呢? 视频里一直提梯度消失, 结合多个视频我猜想: **是不是当梯度消失的时候f(x)接近于0, 所以近似于f(x)+x = x, 这时候就是对等映射了, 如果不消失那么就不用管了, 就正常对f(x)+x反向求梯度就行了.** 暂时这么理解吧, 反正能自洽了.

机器学习

L2范数也就是向量的模,L1范数就是各个元素的绝对值之和

```python c = [i*2 for i in [3,21,67]] print(c) # [6, 42, 134] ``` "[]"里分2部分,后面的循环决定数组内容的长度, 前面是数组每一位的内容.