SuMeng123
SuMeng123
What does “max_length” mean in config.json of successor? I set max_seq_length=128 when I Run compression, but the "max_length" in config.json of successor is 20. 
能不能再更新一下网盘链接,谢谢
提问时请尽可能提供如下信息: ### 基本信息 - 你使用的**操作系统**: linux - 你使用的**Python**版本: 3.6.4 - 你使用的**Tensorflow**版本: 1.14 - 你使用的**Keras**版本: 2.3.1 - 你使用的**bert4keras**版本: 0.10.6 - 你使用纯**keras**还是**tf.keras**: 首行代码设置os.environ['TF_KERAS'] = '1' # 必须使用tf.keras - 你加载的**预训练模型**: 自己在google-bert-base基础上预训练的bert模型。应用到下游任务做文本匹配,下游任务中模型直接用的bert在nsp预训练任务中使用的网络,如函数build_model()所示。 我想将文本匹配任务适配多GPU,将task_sentence_similarity_lcqmc.py按照task_seq2seq_autotitle_multigpu.py进行改造,但是问题是,在将数据转为tf.data.Dataset的时候,不知道该怎么搞。因为样例代码autotitle_multigpu.py中没有y_true,我该如何在train_generator.to_dataset()中引入y_true呢?核心代码中有我自己写的train_generator.to_dataset,但是报错。 ###...
请问在main函数中的这行代码theseus_model.load_weights('best_theseus.weights')是不是没有用? ``` def main(): # 训练predecessor predecessor_evaluator = Evaluator('best_predecessor.weights') predecessor_model.fit_generator() # 训练theseus theseus_evaluator = Evaluator('best_theseus.weights') theseus_model.fit_generator( ) # 请问:这行代码感觉没有用? theseus_model.load_weights('best_theseus.weights') # 训练successor successor_evaluator = Evaluator('best_successor.weights') successor_model.fit_generator() ```