limengxuan
limengxuan
Yeah, It works in the same way. If you encountered any problem during the process, feel free to submit an issue here or in slack.
1. 对操作系统没有要求,只要是k8s v1.14以上的版本就可以 2. 有的
有计划,但我不确定我和你理解的GPU算力超卖是不是一回事,方便的话可以去slack上详细交流一下,或者加我wx:xuanzong4493
> 公司:中国移动 > wx方式:Fedora_lee > 使用场景:GPU资源池化,基于GPU时间分片、内存Quota控制情况下针对租户的申请进行隔离,机器学习运算、与售卖场景。 > 目前遇到的一些小问题: > 目前在离线的情况下对于使用helm模板部署不是很友好,导致该项目部署起来异常复杂,应为主机无法通过设置内部镜像源的方式进行。能否提供有关离线部署该插件与调度器的doc文档。 > 非常感谢对开源社区的贡献。 非常感谢您的支持,如果离线部署遇到困难的话,可以加我wx: xuanzong4493
vgpu-scheduler是调度GPU的调度器插件,31993端口是用来调试该插件用的端口
which CUDA Version and driver version are you using
please update to the latest version using "helm repo update" and try again
这个是正常的现象,每个GPU节点上可分配的任务,所使用的GPU数量不能大于节点实际的GPU数量
vGPU:5表示使用5张vGPU,也就是说在容器里面使用nvidia-smi看到的是5张卡,但是你的节点只有2张卡物理GPU,所以并不能做到这一点。你这个场景可以通过设置显存放大16倍,然后任务直接申请25G来做