Eliyar Eziz
Eliyar Eziz
@crownpku 有结果么?
直接放在 github 了,上面有提到。 https://github.com/BrikerMan/rasa-demo/blob/master/data.json。
@crownpku 嗯嗯,谢谢啦,我也在考虑为啥这么慢。
能提供一个从配置文件加载的方法么?谢谢。
这个项目还没有跟官方的合并是吧?那我就得在这个下面写我的业务,不能直接 pip 安装 rasa nlu 实现对么。
嗯嗯。那就先用这个了。非常感谢。我在继续研究研究。
遇到个错误。 配置文件加载没问题,已经找到训练数据。 ``` Traceback (most recent call last): File "train.py", line 21, in trainer.train(training_data) File "/Users/brikerman/Desktop/ailab/rasa-related/Rasa_NLU_Chi/rasa_nlu/model.py", line 157, in train updates = component.train(working_data, self.config, **context) File "/Users/brikerman/Desktop/ailab/rasa-related/Rasa_NLU_Chi/rasa_nlu/tokenizers/jieba_tokenizer.py", line 37, in...
原因是 tokenize 方法没有 config 属性,而且也不能每次 tokenize 时候加载一次字典。加到 train 方法里面了,这样能正常跑,不过也不合理。应该在 tokenizer 初始化时候进行加载。 ``` def train(self, training_data, config, **kwargs): # type: (TrainingData, RasaNLUConfig, **Any) -> None if config['language'] != 'zh': raise Exception("tokenizer_jieba...
这个不合理是, train 时候我加载了词典,但是预测时候不会走这里。导致我训练和预测的分词不一样。每次 train 加载一次全量的字典这个倒是没问题。