环境配置问题:vllm
Collecting vllm>=0.4.1 (from flashrag==0.0.1)
我在跟着新手教程配置环境的时候,出现了以下问题(vllm下载无法成功),并且即使我尝试使用虚拟环境安装也无法成功,所以我想请问以下问题是否有办法解决,目前我不太清楚问题原因, 目前我是在windows下跑的,终端用的是cmd
Downloading vllm-0.5.4.tar.gz (958 kB) ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 958.6/958.6 kB 5.5 MB/s eta 0:00:00 Installing build dependencies ... done Getting requirements to build wheel ... error error: subprocess-exited-with-error
× Getting requirements to build wheel did not run successfully.
│ exit code: 1
╰─> [20 lines of output]
Traceback (most recent call last):
File "D:\AgentScope\FlashRAG\flashrag\Lib\site-packages\pip_vendor\pyproject_hooks_in_process_in_process.py", line 353, in
note: This error originates from a subprocess, and is likely not a problem with pip. error: subprocess-exited-with-error
× Getting requirements to build wheel did not run successfully. │ exit code: 1 ╰─> See above for output.
note: This error originates from a subprocess, and is likely not a problem with pip.
vllm只支持linux系统,windows系统用不了。可以把requirements.txt里面的vllm删掉,装剩下的包。
vllm只支持linux系统,windows系统用不了。可以把
requirements.txt里面的vllm删掉,装剩下的包。
nmslib在尝试下载时我遇到好像缺少C++工具的问题,导致也无法下载成功,这个环境包也是必须的吗,还是说也可以删除?
不过nmslib好像是requirement中某个的一部分,没直接显示在requirement中
可以把里面的pyserini库删掉,但会导致无法使用bm25检索功能。
可以把里面的
pyserini库删掉,但会导致无法使用bm25检索功能。
感谢回答! 还有一个和当前问题不相关的问题我想询问,教程中提到下载模型,是指需要本地部署吗? 我目前想尝试使用agentscope内嵌flashrag的功能,实现远程的rag model调用,请问这可以实现吗
模型可以在本地或者服务器上部署。理论上是能跟agentscope结合使用的。