苏剑林(Jianlin Su)
苏剑林(Jianlin Su)
这么新的tf和keras我无能为力啊,抱歉。
你说的是从加载模型到输出结果的时间?不是单纯输出结果的时间?
`os.environ['TF_KERAS'] = '1' # 必须使用tf.keras`是放到代码开头了吗?(导入bert4keras之前)
第一组指的是第一个batch,还是batch内的第一个样本?
你的语料是不是不够15条?
我把示例数据增加到20条了,你可以再试试
用的是哈工大的版本 https://github.com/ymcui/Chinese-BERT-wwm ------------------ 原始邮件 ------------------ 发件人: "bojone/SPACES" ***@***.***>; 发送时间: 2021年8月31日(星期二) 上午10:36 ***@***.***>; ***@***.***>; 主题: [bojone/SPACES] 关于与训练模型roberta_wwm_ext (#23) 苏神你好,你在模型中使用的预训练模型roberta是用的brightmart版本,还是hungging face上hfl的再.h5模型再转换为ckpt版本,brightmart版本是基于256字符串长度训练的,对于512长度的文本似乎效果不太好,但是看你的博客说你是用的512版本的 — You are receiving this because you are subscribed to this thread. Reply to this email...
这看起来是显存不够?