苏剑林(Jianlin Su)

Results 390 comments of 苏剑林(Jianlin Su)

> 代码中的 word2vec = Word2Vec.load('../word2vec_baike/word2vec_baike') > 加载的是作者自己训练的词向量,这个训练后的词向量能不能直接分享给我们?^_^ 那这里的是什么?https://github.com/bojone/kg-2019/issues/9#issuecomment-592313140

请详细一点描述一下你的测试过程?你也是算cos还是怎样?

load_weights和save_weights是keras的方法,save_weights_as_checkpoint和load_weights_from_checkpoint是bert4keras的方法,Model没有save_weights_as_checkpoint是显然成立的事情。 只要稍加理解keras和bert4keras的关系,查看一下build_transformer_model的源码,就能写出了: ```python bert = build_transformer_model(xxx, return_keras_model=False) model = bert.model model.load_weights(xxxxxx) bert.save_weights_as_checkpoint(xxxxx) ```

https://github.com/bojone/nezha_gpt_dialog/blob/master/test.py

特意翻了一下,10个epoch是loss=0.9743,val_score=0.93242,20个epoch是loss=0.7957,val_score=0.94880,50个epoch是loss=0.5740,val_score=0.95414。 没有看出“十几个epoch时候loss已经不去下降了”这个结论。而且100个epoch只是稳妥做法,你跑50个问题也不会太大。

> 看你这个日志明显val 上loss已经上升了 不是过拟合了吗 val_score是越大越好。。。。。

but it works well in my ubuntu, both python2 and python3 ~

but "open" has no "encoding" parameter. do you mean using "codecs.open" ?

不知道你看了博客( https://kexue.fm/archives/8213 )没有?博客已经介绍了这个模型是分类、预训练和半监督学习结合在一起的。

就是`train_data_me.json`一样的格式