WeClone
WeClone copied to clipboard
能否支持ROCm框架,能否使用12G显存?
目前是A卡 12G显存,无法使用原生cuda,是否能够支持ROCm框架,或者a卡转接的cuda框架是否能用呢(这样算力似乎会特别少)?
LLaMA-Factory看起来能用docker支持,你可以试试 https://github.com/hiyouga/LLaMA-Factory/blob/610f164c/README_zh.md#%E6%9E%84%E5%BB%BA-docker