BucherLi
BucherLi
> It's on the plan. For now, you can use Quantization Training and Inference by [building from source code](https://github.com/bytedance/lightseq/blob/master/docs/inference/build.md) and running the quant examples. ok, which code branch is recommended...
> 有报啥错没?这个我倒没有试过这个方式 错误如下: { "error": "Variable char_embedding/char_embedding already exists, disallowed. Did you mean to set reuse=True or reuse=tf.AUTO_REUSE in VarScope? Originally defined at:\n\n File \"../rasa_nlu/models/model.py\", line 147, in embedding_layer\n initializer=self.initializer)\n...
为啥乘以词的概率呢,这样的话词频率的影响力会远远大于左右熵和互信息吧
瓶颈主要在很多地方遍历树每一级的子节点。修改方式先把树的构建给改了,改成字典格式。上面mode.py在读的时候没有修改。我这里提交各可运行的文件吧。运行前需删除data目录的root.pkl [model.py.txt](https://github.com/zhanzecheng/Chinese_segment_augment/files/2708777/model.py.txt)
> estimator执行predict每次都会去加载图,用queue能避免这个问题 并发安全吗,多线程同时调用encode的时候。会不会造成数据丢失,是不是得给queue加锁
@terrifyzhao 并发安全吗,多线程同时调用encode的时候。会不会造成数据丢失,是不是得给queue加锁
是啊 这个作者能解释下吗,多线程并发下,会不会有问题
I have same error on it
Same problem here.