Henry Roberts
Henry Roberts
不能用了吗
> 在 terminal 里执行: > > ```shell > mv ~/Library/Application\ Support/xyz.yetone.apps.openai-translator/config.json{,.back} > ``` 可以了,感谢
问题:有多GPU运行的解决方案吗。 我的尝试: 您好,代码如下: ```python from transformers import AutoTokenizer, AutoModel if __name__ == '__main__': model_url = "/data/minio01/model_file/fuzi_model" tokenizer = AutoTokenizer.from_pretrained(model_url, trust_remote_code=True) model = AutoModel.from_pretrained(model_url, device_map="auto", trust_remote_code=True).half().cuda() response, history = model.chat(tokenizer, "你好",...
非常感谢您的回复,利用您提供的代码,我成功运行了多GPU。 但是多GPU跑的时候,有时甚至没有单卡运行的速度快。并且每个GPU运行时,大概只能占用20%左右。 请问您有更好的调优方法吗,期待您的回复。 对于夫子明察模式一,运行时间在60s左右。 
非常感谢
安装了pip list | grep paddle paddle-custom-npu 0.0.0 paddle2onnx 1.3.1 paddleocr 2.9.1 paddlepaddle 3.0.0.dev20241130 rapidocr-paddle 1.4.0
您好,我用的编译安装npu插件。但没有用官方镜像,我的镜像不方便更换。 https://www.paddlepaddle.org.cn/documentation/docs/zh/guides/hardware_support/npu/install_cn.html 同时:使用健康检查命令,如果是一张卡能成功,如果是8张卡会卡着,或者直接报错 python -c "import paddle; paddle.utils.run_check()" ``` python -c "import paddle; paddle.utils.run_check()" /root/miniconda3/envs/MinerU/lib/python3.10/site-packages/paddle/utils/cpp_extension/extension_utils.py:686: UserWarning: No ccache found. Please be aware that recompiling all source files may be required....
我测试下来,虽然出现E1203 08:43:48.096444 27598 analysis_config.cc:163] Please use PaddlePaddle with GPU version. 但速度也确实提升了的,但在一个地方,NPU比CPU还慢,执行Paddle类text_detector。 您那边方便看下吗,最终目的是要执行text_detector时要快一些。非常感谢!
我知道这个日志的原因了,不在您这,在rapid_table那里。现在的问题是text_detector速度慢有解决方法吗
您好,用的是:ch_PP-OCRv4_det_infer、ch_PP-OCRv4_rec_infer 之前只有了一个环境变量:export FLAGS_npu_jit_compile=false。 又用您提供的环境变量测试了下,速度没有变化