很久没本地跑小模型了,之前用的 QWen3-30B-A3B 2507 效果最佳,现在想咨询下哪个模型效果会更好些
1
xtreme1 1 月 29 日
卡死 32G 显存么, 还得留点给上下文吧.
|
2
summerLast OP @xtreme1 用量化后的,32G 还有 10G 左右给上下文
|
3
slowgen 1 月 29 日
GLM-4.7-Flash
|
4
summerLast OP @slowgen 思维链模型吗
|
5
h4ckm310n 7 天前
试试 nemotron 3 nano
|
6
summerLast OP @h4ckm310n 好的,我下载下来跑一下
|
7
kennylam777 3 天前 via Android
你用哪個 Coding agent 的?我用 Qwen3 30B A3B coder ,配 Roo coder 基本不行,大部份時間的 prompt 都錯的,用 Devstral 24B 好一點點但不夠快,而且 32GB 配 MoE 的 context 才能開比較大
|
8
summerLast OP GLM-4.7-Flash QWen3-30B-A3B 都有在用,但是效果不佳,打算试试 Nemotron-3-Nano-30B-A3B
|
9
mewking 2 天前
前几天阿里刚发布了个 Qwen3-Coder-Next-80B-A3B
GLM-4.7-Flash 哪些方面不行?看来是刷分刷出来的呀 |
10
summerLast OP @mewking 指令跟随上效果不佳
|