V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
andyskaura
4.64D
V2EX  ›  Local LLM

gemma4:e4b 的效果出乎意料, 1050ti 也能很好的生成文章

  •  
  •   andyskaura · 1 天前 · 2913 次点击
    之前使用 deepseek qwen 在超迷你模型( 32b 以下)上写小说,基本驴唇不对马嘴。
    这次的谷歌的模型确实牛逼了。
    本地部署未审查版本,简直就是写文利器


    1050ti:
    29 条回复    2026-04-07 20:36:15 +08:00
    oreader996
        1
    oreader996  
       1 天前
    体验了下 e4b 还行
    andyskaura
        2
    andyskaura  
    OP
       1 天前
    @oreader996 不能和全尺寸的比,横向对比真的厉害,感觉这算是大模型真正走进本地电脑了
    Shaar
        3
    Shaar  
       1 天前
    这玩意驱动龙虾够不够用
    andyskaura
        4
    andyskaura  
    OP
       1 天前
    @Shaar 不够用。太慢 太笨
    changnet
        5
    changnet  
       1 天前
    放一段出来看看是啥样的?我以前试过 30B 左右的本地部署写文章基本没法看

    不过就小说而言,我觉得线上的模型写出来的也没法看的,明显不是一个正常人的逻辑思维,用词修饰这些都不行。要是写个短篇再人工改改还行
    andyskaura
        6
    andyskaura  
    OP
       1 天前   ❤️ 1
    这个我有经验,做个生成器,

    如果要写长篇小说,要和人写一样,先做好提纲,写好角色性格,矛盾。再一次性生成完章节标题和大纲,再根据大纲扩写单个章节。
    andyskaura
        7
    andyskaura  
    OP
       1 天前
    @changnet 忘了 @
    tf2
        8
    tf2  
       1 天前
    我 1060 6G 能跑不
    Brightt
        9
    Brightt  
       1 天前
    能写黄文不
    kooze
        10
    kooze  
       1 天前
    4090 24G 26b 的好快
    Brightt
        11
    Brightt  
       1 天前
    @kooze 效果怎么样老哥,我也想部署个玩玩
    andyskaura
        12
    andyskaura  
    OP
       1 天前   ❤️ 1
    @tf2 可以 我在公司用 1050ti 4g 做的测试
    andyskaura
        13
    andyskaura  
    OP
       1 天前
    @Brightt #9 自己部署未审查版本
    lemonda
        14
    lemonda  
       1 天前
    试试可不可以从不规则的文本文件,比如使用 tab 上下对应的文本文件中提取出正确的信息。比如:
    username
    example
    username dataname extname
    example1 example2 example3
    kooze
        15
    kooze  
       1 天前   ❤️ 1
    @Brightt #11 速度不错,简单测试几个还可以。不过没深入测试,不知道智力如何
    andforce
        16
    andforce  
       1 天前 via iPhone
    @kooze 兄弟试过 31b 吗?
    pxiphx891
        17
    pxiphx891  
       1 天前
    未审查版本从哪里下载?
    villivateur
        18
    villivateur  
       1 天前
    e4b 不是需要 12G 左右才能跑吗? 4G 显存是怎么实现的?
    kooze
        19
    kooze  
       1 天前
    @andforce 我来试试
    changnet
        20
    changnet  
       1 天前
    @villivateur 这东西内存也可以跑,无非就是速度慢些。用 mac 来跑就是钻这个空子。常用的工具比如 LM studio 之类的都可以配置显存和内存的比例
    Tiger1994
        21
    Tiger1994  
       1 天前
    笔记本显卡 R760M 能跑吗
    andyskaura
        23
    andyskaura  
    OP
       1 天前
    @villivateur 我跑的 q4 量化
    villivateur
        24
    villivateur  
       1 天前
    @andyskaura 就是 Q4 量化呀,我试了下,128K context ,需要 16G 左右的显存
    burp2019
        25
    burp2019  
       1 天前
    楼主哪里能看到成品,最近经常刷到 AI 小说,生成的动画
    andyskaura
        26
    andyskaura  
    OP
       1 天前
    @villivateur #24 那我就不清楚了 我没有指定 context ,不过你这 128K 也许设太大了
    andforce
        27
    andforce  
       1 天前 via iPhone
    @kooze 等你好消息
    BD8NCF
        28
    BD8NCF  
       1 天前
    感谢楼主。
    下午在 1050Ti 上跑了一下,发现还可以。只是速度有点慢。
    iango
        29
    iango  
       1 天前
    @villivateur 对于 16G 显存 128K context 太大了,从 4K 开始测试,一点点往上拉。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   943 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 27ms · UTC 20:12 · PVG 04:12 · LAX 13:12 · JFK 16:12
    ♥ Do have faith in what you're doing.