Fallen Angel
Fallen Angel
Hello When I use the sru model under the dev-3.0 branch for inference, I find that the memory keeps growing, is it because of memory leaks? The code is simple...
case示例: ``` from LAC import LAC l = LAC(mode='seg') l.add_word("广东省/n") l.add_word("人/n") l.add_word("民/n") l.add_word("人民/n") l.add_word("民政/n") l.add_word("政府/n") ``` ``` l.run("人民政府") ['人', '民', '政府'] ``` 期望得到 ['人民', '政府'] 我观察在源码 `parse_customization` 中仅根据前缀树来修正,有办法引入概率或者其他方式来解决优化吗?
你好,一开始我把softmax作为最后的分类层,结果在调learning_rate的时候发现loss要么一开始就在某个值上下浮动,要么就会一直增大,后来用你的sigmoid方式分类,loss到最后会在0.0834上下变化,但是accuracy确实一直很小,而且会有时候增大有时候减小,这大概是什么原因呢? 相对你的代码,我只是添加了scope,然后weights初始化的时候用的是truncated_normal_initializer(stddev=0.01),不知道这样改会有什么影响吗?
你好,我启动2个worker测试服务效果,在我手动杀死第一个worker时(模拟服务意外崩了的情况),发现**有时候**第一个worker会占据读取输入队列数据的_rlock,手动杀死时,这个锁不会被释放,从而导致第二个worker总是不能从队列中get到值,recv_request永远超时,队列长度持续增大。请问有没有什么好的异常处理方案? 我使用的是Streamer和StreamerWorker ``` try: print("_recv_request pid is: " + str(os.getpid())) print("_request_queue is: " + str(self._request_queue.qsize())) item = self._request_queue.get(timeout=timeout) except Empty: raise TimeoutError else: return item ``` ``` # queues.py中的代码 if...