fastllm
fastllm copied to clipboard
把模型部署在cpu上运行成功,但部署到gpu上却报错了
像上图红框框的位置,原来是cpu,代码运行成功,但我想把模型加载在cuda:0卡上,把"cpu"改成"cuda:0"后,报下面这个错误了,要怎么改,才能让模型部署到gpu上呢?
另外,也尝试了下面这种方式,模型依旧不能加载到cuda0卡上,大佬指点一下吧
我设置为了auto,自动部署到GPU上了
歪个楼,请问cuda在官网上为什么下不了了呢,点击下载就会跳转Even AI can't find this page!