wuxing_iie

Results 6 issues of wuxing_iie

感谢群友提供的百度网盘链接,这里有解压好的 glove.6B.200d.txt https://pan.baidu.com/s/1TD7K059UVcxuPazWgtY8Dw

推荐: https://zhuanlan.zhihu.com/p/59011576 https://zhuanlan.zhihu.com/p/68502016 希望能辅助大家理解CS224N这门课,但是更希望大家能够像大佬们一样,多多输出高质量的课程笔记。每个人的视角不同,遇到的问题也不一样,积累的都是有价值的经验,期待大家在群里和github上踊跃讨论,共同进步!

感谢群友的支持: https://www.bilibili.com/video/av24132174?p=1 HMM的讲解,中文版,最详细的一个tutorial

感谢群友@风雪夜归人语 https://www.cnblogs.com/peghoty/p/3857839.html

因为skip-gram模型是根据中心词预测中心词的上下文,这直观上看来,应该“难度”会大于CBOW,那么按理来说会需要更多的语料才能比较好的收敛,那为什么小语料的情况下反而skip-gram表现更好一些呢? 参考资料:http://licstar.net/archives/620

这种根据中心词来预测中心词的上下文,有什么比较直观的解释吗?像CBOW那种,上下文预测中心词,脑海里想起来比较直观,好理解一些,但是skip-gram模型脑海里却想不到直观的解释,有什么想法或者参考资料吗?