Maxhyl
Maxhyl
请问这个问题解决了吗?
> 同样遇到该问题! 应该是模型的shape和词向量的shape不一致导致的,我重新训练模型在调用就正常了
> > > 同样遇到该问题! > > > > > > 应该是模型的shape和词向量的shape不一致导致的,我重新训练模型在调用就正常了 > > 运行train 的时候,在data loader 的第202行 for sp in spoer.extract_items 其中spoer未定义是什么原因,感谢! 在最后面自己定义就好了, 调用SpoSearcher这个类
> 你好~~我是tf1.15.2 + py3.6.5 + web.py0.61,跑的话,还是会报错:Invalid argument: You must feed a value for placeholder tensor 'Placeholder_368' with dtype float and shape [2] [[{{node Placeholder_368}}]] 修改keras_yolo3.py 的concatenate = tf.keras.backend.concatenate
> 这个内存泄漏不是web框架的问题,是ocr模型的问题。无论使用web.py flask,django都是会出现这个问题的,泄漏的地方出现在 ./text/keras_detect.py这个文件中,代码先加载了模型,每一次运行session中的内容并没有得到释放才生了内存的堆积。 > 这个内存泄漏不是web框架的问题,是ocr模型的问题。无论使用web.py flask,django都是会出现这个问题的,泄漏的地方出现在 ./text/keras_detect.py这个文件中,代码先加载了模型,每一次运行session中的内容并没有得到释放才生了内存的堆积。 请问是否是feed_dict里面的数据传输导致tensorflow图节点增加了,导致内存溢出的
Using the llama2 model to build API scripts encountered the same problem. Using multiple GPUs will prompt for port occupation. Using the method in # 147, the llama2-7b-chat model can...
> is this PR supports llama2-70B? I have the same problem
你好,我在使用aquila-7b模型的generate.py脚本进行推理会报错: /home/edcuser/.conda/envs/pytorch_cuda117/lib/python3.10/site-packages/flagai/model/layers/atten │ │ tions.py:189 in forward │ │ │ │ 186 │ │ │ │ 187 │ │ if self.config.flash_atten or (self.config.flash_atten_aquila_style and not self │ │ 188 │...
> 可能是版本问题,可以把env_args的参数--local_rank改成 --local-rank再重新安装 这是已经改了之后运行的结果
> 抱歉点成关闭了,麻烦再打开issue下 > ifconfig: command not found 这个命令单独运行是可以的