CS224n-winter-together
CS224n-winter-together copied to clipboard
对skip-gram的直观解释
这种根据中心词来预测中心词的上下文,有什么比较直观的解释吗?像CBOW那种,上下文预测中心词,脑海里想起来比较直观,好理解一些,但是skip-gram模型脑海里却想不到直观的解释,有什么想法或者参考资料吗?
抛砖引玉,自己先回答一下: 举个例子吧,给你若干个词,让你扩展成一句话,就类似于 skip-gram 模型,只是没有的窗口的概念,而且中心词不止一个。另一个相关的模型是训练句子向量用的 skip-thought,给定一个句子,去生成前一个句子和后一个句子。