1204922635

Results 1 comments of 1204922635

@Yunnglin 用vllm拉起模型,然后用evalscope跑测试时,总是会把vllm的服务跑崩,请问我可不可以修改evalscope的代码,让其支持本地部署,而不是提供一个api出来呢