V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
summerLast
V2EX  ›  Local LLM

30B 尺寸哪个小模型编码能力会好一些

  •  
  •   summerLast · 1 月 29 日 · 990 次点击

    很久没本地跑小模型了,之前用的 QWen3-30B-A3B 2507 效果最佳,现在想咨询下哪个模型效果会更好些

    10 条回复    2026-02-09 11:14:27 +08:00
    xtreme1
        1
    xtreme1  
       1 月 29 日
    卡死 32G 显存么, 还得留点给上下文吧.
    summerLast
        2
    summerLast  
    OP
       1 月 29 日
    @xtreme1 用量化后的,32G 还有 10G 左右给上下文
    slowgen
        3
    slowgen  
       1 月 29 日
    GLM-4.7-Flash
    summerLast
        4
    summerLast  
    OP
       1 月 29 日
    @slowgen 思维链模型吗
    h4ckm310n
        5
    h4ckm310n  
       7 天前
    试试 nemotron 3 nano
    summerLast
        6
    summerLast  
    OP
       6 天前
    @h4ckm310n 好的,我下载下来跑一下
    kennylam777
        7
    kennylam777  
       3 天前 via Android
    你用哪個 Coding agent 的?我用 Qwen3 30B A3B coder ,配 Roo coder 基本不行,大部份時間的 prompt 都錯的,用 Devstral 24B 好一點點但不夠快,而且 32GB 配 MoE 的 context 才能開比較大
    summerLast
        8
    summerLast  
    OP
       3 天前
    GLM-4.7-Flash QWen3-30B-A3B 都有在用,但是效果不佳,打算试试 Nemotron-3-Nano-30B-A3B
    mewking
        9
    mewking  
       2 天前
    前几天阿里刚发布了个 Qwen3-Coder-Next-80B-A3B

    GLM-4.7-Flash 哪些方面不行?看来是刷分刷出来的呀
    summerLast
        10
    summerLast  
    OP
       1 天前
    @mewking 指令跟随上效果不佳
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3607 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 29ms · UTC 04:00 · PVG 12:00 · LAX 20:00 · JFK 23:00
    ♥ Do have faith in what you're doing.