Yuxian Gu
Yuxian Gu
可以尝试在 docker 中安装更高版本的 cuda,同时也需要重新安装对应版本的 pytorch 和 apex
什么叫 cuda 不可用呢?如果 python 环境下 `torch.cuda.is_available()` 输出是 False 的话,说明 pytorch 和 cuda 仍然没有对应。可以看下 python 环境中 `torch.version.cuda` 的输出和命令行环境中 `nvcc --version` 的输出是否能对应。
是什么问题?是 "cuda不可用" 还是 `import /home/xx/.cache/torch_extensions` ?
这是你环境配置的问题了,可以看看环境变量是否设置正确
应该是和您使用的操作系统有关,比如您的 log 里面写了 KeyError: 'HOME',说明您用的 Windows 系统没有这个环境变量。请更换系统,或者尝试我们的 huggingface 版本 https://github.com/thu-coai/EVA/tree/huggingface
交互式推理8GB左右
是否按照 readme 里面修复了 deepspeed 的 bug?
The tokenizer should load from the `vocab.txt` file, not the `pytorch_modeo.bin` file. You can try downloading the files from the HuggingFace [repo](https://huggingface.co/thu-coai/EVA2.0-xlarge/tree/main) and set `PATH_CHECKPOINT` to the directory that contains...
有问题可以到 https://github.com/thu-coai/EVA 讨论
It works fine in our environment. Is the download started by running the following commands? ```bash DLINK=$(echo -n "aHR0cHM6Ly9jb252ZXJzYXRpb25odWIuYmxvYi5jb3JlLndpbmRvd3MubmV0L2JlaXQtc2hhcmUtcHVibGljL01pbmlMTE0vcHJvY2Vzc2VkX2RhdGEudGFyP3N2PTIwMjMtMDEtMDMmc3Q9MjAyNC0wNC0xMFQxMyUzQTExJTNBNDRaJnNlPTIwNTAtMDQtMTFUMTMlM0ExMSUzQTAwWiZzcj1jJnNwPXImc2lnPTRjWEpJalZSWkhJQldxSGpQZ0RuJTJGMDFvY3pwRFdYaXBtUENVazNaOHZiUSUzRA==" | base64 --decode) wget -O processed_data.tar $DLINK ```