https://huggingface.co/Qwen/Qwen3.5-35B-A3B
vLLM 部署的话,需要用 uv 安装一个 nightly 版本(正常 pip install vllm 的 0.15 版本用不了):
pip install uv
uv pip install -U vllm --torch-backend=auto --extra-index-url https://wheels.vllm.ai/nightly
1
tthem 2 月 25 日
m2max 64GB 内存,能跑的起来吗
|
3
046569 2 月 25 日
|
5
Jackyxiaoc 19 天前
这个模型跑龙虾咋样,够用么
|
6
stefwoo 2 天前 via Android
@Jackyxiaoc https://pinchbench.com/
这个测评网站里面,这个模型跑龙虾还行,不过比 27B 要差五个百分点左右。 我的显卡是 3090 ,我现在就在犹豫是跑 27B 还是 35B ,27B 还是太慢了。 |