Feb Jiang
Feb Jiang
> 同样遇到了这个问题,是词库导致的,默认使用的是`cache/vocab_small.txt`,里面13317个单词,包括各种符号,当样本量小的时候,结果就会有很多乱码。可以根据自己的data,生成vocab文件(当然这样的话,单词来源受限于样本了) 步骤如下: > > * 生成vocab_user.txt文件 > > ``` > cd cache/ > bash make_vocab.sh > ``` > > * 根据vocab_user.txt内单词个数,调整配置文件`config/model_config_small.json`的vocab_size字段 > * 培养 > > ``` > python...
我也想问这个问题,请问楼主解决了吗?
生成乱码,用自己train.json数据生成的词库时而会出现很多[UNK],语句很乱;用作者现有的词库会出现生成很多的乱码,目前不清楚是参数的问题还是什么问题,有点懵...
> Flet is server driven. the delay may be from that latency generally speaking though my latency is usually 0.1 sec. 0.5 seems like a lot Thank you for your...