jaybo

Results 66 comments of jaybo

# 一、硬件 根据个人偏好,记录一些我觉得还不错,值得考虑的一些硬件设备: ## **背包** - [维多利亚旅行者双肩包电脑包15.6英寸 V9006](https://item.jd.com/100013451336.html) 背起来舒服,不累 - [新秀丽(Samsonite)双肩包电脑包14英寸男女背包](https://item.jd.com/3159984.html) ## 手表 - [荣耀手表 MagicWatch2 46mm](https://item.jd.com/100010206902.html#crumb-wrap)(挺薄的,不重) - [HUAWEI WATCH 3智能手表](https://item.jd.com/100011720759.html) ## **笔记本** 1、主要从轻薄方便携带、高性能和配置、可扩展性几个方面考虑,倾向既要性能又要便携而考虑的: - ThinkPad T 系列 - [T490](https://item.jd.com/100009006220.html)(14英寸轻薄笔记本电脑...

# 二、软件 - Windows、Android 系列 ## 2.1 windows 写作和记录: - Typora(markdown写作软件,特点所输即所见,可以搭配PicGo图传上传工具,完美) - [marktext](https://github.com/marktext/marktext)(也是一款markdown写作软件,所输即所见) - 有道云笔记(支持markdown;会员才可以插入图片)、印象笔记(免费版上传流量限制) - [2020年最好用的云笔记软件推荐 - v1tx](https://www.v1tx.com/post/best-note-software/#i-4) - 提到“蚂蚁笔记” ,开源软件,适合写技术文用,可以使用自己的私有云保存笔记内容 - 幕布(会员可以插入图片) - [flomo ](https://flomoapp.com/)(像发微博一样记笔记,记录想法的川流) - CSDN、掘金、简书、语雀、GitHub -...

# 三、软件 - macOS、iOS、iPad 系列 可参考【二】中关于 Windows 和 Android 的。 ## 3.1 macOS(还未用过 Mac,来自他人分享和推荐) - Alfred - iTerm2(OS X 下一款开源免费的的终端工具)、zsh shell - TotalFinder(Finder增强工具,多标签式浏览、拷贝路径、剪切文件、显示隐藏文件、多栏窗口模式、彩色标签等功能,还可以实现 Mac 系统里多个 Finder 窗口在同一窗口中显示) - [Mathpix Snip](https://mathpix.com/)(识别数学公式,登录账户可以与电脑端同步。...

# 四、浏览器扩展和应用 ## 4.1 Chrome 浏览器: ========**Chrome 扩展和应用安装和下载:**====== - 官方安装地址:[Chrome 网上应用店 - 扩展程序](https://chrome.google.com/webstore/category/extensions?hl=zh-CN) - 非官方,Chrome 扩展下载: - 非官方:https://crxdl.com/ - 非官方,Chrome插件网:http://www.cnplugins.com/ ==================================== ### 4.1.1 Chrome 扩展: 扩展管理:(这类插件管理挺多的,主要的功能都类似,建议安装一个自己喜欢的即可) - [扩展管理器(Extension Manager)](https://chrome.google.com/webstore/detail/extension-manager/gjldcdngmdknpinoemndlidpcabkggco?utm_source=chrome-ntp-icon)(目前:100,000+ 位用户下载。特点:可以分组管理、排序、锁定等。)【荐】...

# 五、在线网站 实用的在线网站: - [搜酷站 | 搜罗全网酷站](https://www.soukuzhan.com/) (推荐设为当浏览器主页) - [TOOlFK程序员在线工具 -TOOLFK在线工具](https://www.toolfk.com/) - [FreeSSL.cn](https://freessl.cn/)(一个提供免费HTTPS证书申请的网站) - 注:[如何使用 FreeSSL 申请免费证书?](https://blog.freessl.cn/how-to-use-freessl-issue-free-certificates/) - [奶牛快传](https://cowtransfer.com/)(文件传输) 在线作图: - [draw.io](https://www.draw.io/) - [ProcessOn - 免费在线作图,思维导图,流程图,实时协作](https://www.processon.com/) 网站分析: - (可以用来查看网站及注册人的信息包括电话) 网上求医咨询:...

# 六、编程学习 jdk下载:https://www.injdk.cn/ Java和大数据: - JetBrains IntelliJ IDEA :Ultimate 版收费;Community 版免费 - Navicat Premium:SQL客户端和数据库管理工具 - DBeaver:SQL客户端和数据库管理工具 - xshell 或 MobaXterm:远程连接服务器工具 **IDEA 插件推荐:** - 必备: - [CodeGlance](https://plugins.jetbrains.com/plugin/7275-codeglance/versions):代码迷你缩放图插件 - [Maven Helper](https://plugins.jetbrains.com/plugin/7179-maven-helper/versions):解决 Maven...

[换个角度看GAN:另一种损失函数](https://mp.weixin.qq.com/s/aAhf8GfXtndDyWnIEuSklA)

## From:[ Batch-normalized 应该放在非线性激活层的前面还是后面? - 知乎](https://www.zhihu.com/question/283715823) **1、某个回答:** “应该”放在前面还是后面?这个“应该”其实有两种解释: 1. 放在前面还是后面比较好? 2. 为什么要放在前面还是后面? 对于第一问,目前在实践上,倾向于把BN放在ReLU后面。也有评测表明BN放ReLU后面效果更好。 对于第二问,实际上,我们目前对BN的机制仍然不是特别清楚,这里只能尝试做些(玄学)解释,不一定正确。 BN,也就是Batch-Normalization,这名字就能让我们想到普通的normalization(归一化),也就是将输入传给神经网络之前对输入做的normalization。这个normalization是对输入操作的,是在输入层之前进行的。那么,**从这个角度上来说,Batch-Normalization可以视作对传给隐藏层的输入的normalization**。想象一下,如果我们把网络中的某一个隐藏层前面的网络层全部砍掉,那么这个隐藏层就变成了输入层,传给它的输入需要normalization,就在这一层之间,这个位置,就是原本的BN层的位置。从这方面来说,BN层放非线性激活之后,是很自然的。 然后,我们再来考虑一些具体的激活函数。我们看到,无论是tanh ![image](https://user-images.githubusercontent.com/25930007/69899770-035ac280-13a6-11ea-912e-9339d4b86df9.png) 还是sigmoid ![image](https://user-images.githubusercontent.com/25930007/69899774-08b80d00-13a6-11ea-9570-f2dc402f1cb5.png) 函数图像的两端,相对于x的变化,y的变化都很小(这其实很正常,毕竟tanh就是拉伸过的sigmoid)。也就是说,容易出现梯度衰减的问题。那么,如果在tanh或sigmoid之前,进行一些normalization处理,就可以缓解梯度衰减的问题。我想这可能也是最初的BN论文选择把BN层放在非线性激活之前的原因。 但是ReLU的画风和它们完全不一样啊。 ![image](https://user-images.githubusercontent.com/25930007/69899777-166d9280-13a6-11ea-8ccd-bfd4973b5fd0.png) 实际上,最初的BN论文虽然也在使用ReLU的Inception上进行了试验,但首先研究的是sigmoid激活。因此,试验ReLU的,我猜想作者可能就顺便延续了之前把BN放前面的配置,而没有单独针对ReLU进行处理。总结一下,BN层的作用机制也许是通过平滑隐藏层输入的分布,帮助随机梯度下降的进行,缓解随机梯度下降权重更新对后续层的负面影响。因此,实际上,无论是放非线性激活之前,还是之后,也许都能发挥这个作用。只不过,取决于具体激活函数的不同,效果也许有一点差别(比如,对sigmoid和tanh而言,放非线性激活之前,也许顺便还能缓解sigmoid/tanh的梯度衰减问题,而对ReLU而言,这个平滑作用经ReLU“扭曲”之后也许有所衰弱)。 作者:论智 链接:https://www.zhihu.com/question/283715823/answer/438882036 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 **2、某个回答:** 和一位答友类似,我见过的很多网络也是都把bn放到激活前面。我做一下解释: 现在我们假设所有的激活都是relu,也就是使得负半区的卷积值被抑制,正半区的卷积值被保留。而bn的作用是使得输入值的均值为0,方差为1,也就是说假如relu之前是bn的话,会有接近一半的输入值被抑制,一半的输入值被保留。...

## 1、[混淆矩阵的绘制(Plot a confusion matrix)](https://mathpretty.com/10675.html) ``` python # 绘制混淆矩阵 def confusion_matrix(preds, labels, conf_matrix): preds = torch.argmax(preds, 1) for p, t in zip(preds, labels): conf_matrix[p, t] += 1 return conf_matrix conf_matrix...