Skip to content
New issue

Have a question about this project? # for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “#”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? # to your account

使用这个 sh scripts/run_assistant_server.sh 部署模型之后,会不会比VLLM速度慢很多 #506

Open
LIUKAI0815 opened this issue Jun 26, 2024 · 8 comments

Comments

@LIUKAI0815
Copy link

sh scripts/run_assistant_server.sh --served-model-name Qwen2-7B-Instruct --model path/to/weights
这个比VLLM推理速度慢吗

@zzhangpurdue
Copy link
Collaborator

不会,一样快,底层就是调用vllm

@LIUKAI0815
Copy link
Author

LIUKAI0815 commented Jun 27, 2024

sh scripts/run_assistant_server.sh --served-model-name Qwen2-7B-Instruct --model path/to/weights 这条命令怎么修改模型路径的位置,因为使用这条命令,读取的模型位置会自动跳转到modelscope下载的位置,而不是我的本地位置,我本地的模型在自己的路径里,所以会出现requests.exceptions.HTTPError: The request model: /workspace/model/llm/Qwen/Qwen2-7B-Instruct/ does not exist!的报错

@LIUKAI0815
Copy link
Author

LIUKAI0815 commented Jun 27, 2024

@zzhangpurdue vi /opt/conda/lib/python3.10/site-packages/vllm/config.py
企业微信截图_17194981507011
注释掉里面的代码就好了
咱们开发这种框架,能不能把这种参数在命令行里的参数就添加上

@zzhangpurdue
Copy link
Collaborator

之前我们尝试的时候确实是利用modelscope的下载地址进行测试的,没有考虑非modelscope的地址,这里我们看看如何修改。
感谢提供意见。

@zzhangpurdue
Copy link
Collaborator

刚试了一下,把模型挪出modelscope的下载路径然后也还是没有复现这个问题,是否可以告诉我一下你的vllm版本?

@LIUKAI0815
Copy link
Author

LIUKAI0815 commented Jun 28, 2024

GPU环境镜像(python3.10),ubuntu22.04-cuda12.1.0-py310-torch2.1.2-tf2.14.0-1.13.1 。 这个官方镜像里的,vllm是0.3.0。

@LIUKAI0815
Copy link
Author

LIUKAI0815 commented Jun 28, 2024

@zzhangpurdue
企业微信截图_1719546363179
包括swift的框架里也有这个代码,之前运行的时候也会遇过同类问题。
vi /opt/conda/envs/swift/lib/python3.10/site-packages/vllm/config.py 在这里面,环境也是上面提到的。

@zzhangpurdue
Copy link
Collaborator

我这里run脚本的时候默认 export VLLM_USE_MODELSCOPE=false 应该是可以解决这个问题。
参考 #507

# for free to join this conversation on GitHub. Already have an account? # to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants