airllm icon indicating copy to clipboard operation
airllm copied to clipboard

低消耗微调和推理这个太重要了

Open TodayWei opened this issue 2 years ago • 2 comments

我对你们这个模型挺感兴趣的。 请问有详细的个性化微调、推理的技术交流或者支持吗?交流社区什么的 推理的性能怎么样? 训练和推理的硬件配置建议怎么样? 另外,可以用vllm来推动吗?

TodayWei avatar Jun 21 '23 17:06 TodayWei

推理的话我们用的是H100/A100 80G。别的硬件还没有测试过。用H100或者A100很快。

vllm理论上是没问题的。我回头可以测试一下。但是我理解vllm是优化throughput,看你需要优化的是throughput还是latency。

lyogavin avatar Jun 23 '23 14:06 lyogavin

作为部署来说,throughput也是至关重要的

TodayWei avatar Jun 24 '23 09:06 TodayWei