siamese-lstm-for-sentence-similarity icon indicating copy to clipboard operation
siamese-lstm-for-sentence-similarity copied to clipboard

pre_train的意义

Open charmpeng opened this issue 6 years ago • 2 comments

up主你好,我看了下代码,了解了model的大致框架。不太明白为何有一个pre_train的过程,是为了给模型的参数一个初始化么?

charmpeng avatar Jul 13 '18 06:07 charmpeng

预训练-微调(pretrain - finetune)策略是在深度模型训练过程中一个常用的训练策略. 具体做法是,先用一个与任务相关的数据集(往往比任务数据集大)对模型进行预训练, 然后使用预训练模型在任务数据集上进行微调训练. 这种策略在CV/NLP领域被广泛采用,你可以看下这个博客,总结的特别好. https://flyyufelix.github.io/2016/10/03/fine-tuning-in-keras-part1.html

Zyue10969 avatar Sep 05 '18 09:09 Zyue10969

up主你好,我看了一下你的代码,想问一下你的那个data文件夹能提供下吗?因为没有数据所以不知道该如何运行。。。

lipanpanpanpanpan avatar Oct 07 '18 04:10 lipanpanpanpanpan