V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
babymonster
V2EX  ›  Local LLM

都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

  •  
  •   babymonster · 1 day ago · 10765 views
    五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。

    难道小白真的就这样被割韭菜吗?
    123 replies    2026-05-07 14:33:33 +08:00
    1  2  
    selca
        1
    selca  
       1 day ago
    详述具体差异是什么呢,为啥觉得 nvidia 更适合
    minikekeke
        2
    minikekeke  
       1 day ago   ❤️ 1
    便宜
    Gemini4422335
        3
    Gemini4422335  
       1 day ago   ❤️ 1
    因为同价位下 AMD AI MAX+ 395 可以用更大的显存,回血出内存也方便,最高 128G
    如果是 N 卡它到不了这么大,除非多卡,但是多卡又比 AMD 贵空间占的也多
    至于性能损失方面不是咱们这些专业选手,人家并不在意
    chihiro2014
        4
    chihiro2014  
       1 day ago
    rocm 各种坑
    afkool
        5
    afkool  
       1 day ago via Android
    推理来讲 395 便宜啊 128g 能跑大多数模型了
    他的竞争对手应该是 Mac mini 128g 这种
    Nvdia 是另一个赛道了吧……
    xiaomushen
        6
    xiaomushen  
       1 day ago
    你觉得人家没这个智商对比么?
    哪怕 Q4 量化,部署一个 dense ,又真正可用的本地模型,根据不同参数规模,你猜猜需要多大的显存?
    当然,如果你是推荐给他 H20/H200 之类的,当我没说。。。
    xiaomushen
        7
    xiaomushen  
       1 day ago
    @chihiro2014 坑是真的坑,但 2026 年,凑合能用
    zhuoi
        8
    zhuoi  
       1 day ago
    安装个 rocm 你就明白 A 卡的坑了
    xiaomushen
        9
    xiaomushen  
       1 day ago
    @afkool 是的呀,买东西肯定是综合考虑的,各种变量约束。
    andlp
        10
    andlp  
       1 day ago
    本地个人用,部署这些模型差别不大.nvidia 贵,我还推荐你买最新的 nvidia 显卡,部署 deepseek v4 pro 呢
    strobber16
        11
    strobber16  
       1 day ago via Android   ❤️ 3
    建议买华为
    babymonster
        12
    babymonster  
    OP
       1 day ago
    @selca Nvidia 的优势:CUDA 、硬件级 AI 优化、社区兼容性、高效、稳定、开箱即用
    ntedshen
        13
    ntedshen  
       1 day ago
    > 我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395

    你不妨说说你们都给他推了什么。。。
    twofox
        14
    twofox  
       1 day ago
    说说什么预算下,推荐了什么?
    xtreme1
        15
    xtreme1  
       1 day ago   ❤️ 92
    /t/1209353
    很羡慕你的大脑升级速度, 4 天前击矛不懂今天已经可以指点江山了
    padeoe
        16
    padeoe  
       1 day ago
    本地部署大模型务必买 NVIDIA Spark 呀,和 AMD 395 对标的产品,这俩我都买了,AMD AI MAX+ 395 预售阶段我就下单了,相比来说,比 AMD 395 贵几千块,但生态和性能强的不是一点。
    babymonster
        17
    babymonster  
    OP
       1 day ago
    @ntedshen Nvidia Jetson Orin 64GB 、Nvidia Jetson Thor T5000 、Nvidia DGX spark 这些?有啥问题吗?
    babymonster
        18
    babymonster  
    OP
       1 day ago
    @twofox 三四万左右,给他推荐了 Nvidia Jetson Orin 64GB 、Nvidia Jetson Thor T5000 、Nvidia DGX spark 这些等等
    babymonster
        19
    babymonster  
    OP
       1 day ago
    @padeoe 真的能对标吗? AMD 也有 CUDA 生态?
    kiwatokk
        20
    kiwatokk  
       1 day ago via iPhone
    主要还是 n 卡有 cuda 吧
    padeoe
        21
    padeoe  
       1 day ago
    # 19 我是指 nvidia spark 和 amd 395 是同类型产品。推荐 Jetson 太业余了,我就问你推荐的这些你买过吗
    GoogleQi
        22
    GoogleQi  
       1 day ago
    @strobber16 你在说什么😂
    ikaros
        23
    ikaros  
       1 day ago   ❤️ 1
    如果只是跑 LLM 的话我之前的 AMD 显卡都是直接装 lmstudio 就可以用了,不知道有啥区别。
    ikaros
        24
    ikaros  
       1 day ago   ❤️ 2
    395 去年买 128G 只要 1W 出头(现在估计不到 2W),Nvidia 那个要 3W 多, 而且 395 可以装 Windows 玩游戏, nvidia 那个我记 CPU 用的是 ARM 的, 要我也选 AMD
    Bluecoda
        25
    Bluecoda  
       1 day ago
    就像苹果部署本地 LLM 一样,肯定也比不过 nv 吧?但是别人内存大啊,你 128GB 的 n 卡多少钱?苹果的多少钱?
    在飞机上用苹果 64GB 跑个本地 LLM ,设置可以不联网愉快写代码
    场景不同,你不能用你的场景套用别人的
    xiaomimicoin2
        26
    xiaomimicoin2  
       1 day ago
    能买部署就是豪气
    babymonster
        27
    babymonster  
    OP
       1 day ago
    @Bluecoda 真的会在飞机上去跑吗?
    CS50
        28
    CS50  
       1 day ago
    不要对别人怎么花的钱有执念
    mooyo
        29
    mooyo  
       1 day ago
    rocm 真的是死了🐎了,还有 AMD AI CPU 的 NPU 在 Linux 下没有驱动也是死了🐎了。驱动还得填表发邮箱申请。
    xocus
        30
    xocus  
       1 day ago
    统一内存 128G ,只有 amd 的是 Windows 系统,其他 nvida 是 ubuntu ,mac 是苹果系统,是我,我也选 amd 的
    smlcgx
        31
    smlcgx  
       1 day ago
    这场景太经典了,又想本地推理,又想着性价比,最后选这个不意外

    不过话说回来,谁没交过学费啊
    clemente
        32
    clemente  
       1 day ago
    @babymonster ROCM 就是兼容 CUDA 来的 不过就是不好用 要折腾
    fs418082760
        33
    fs418082760  
       1 day ago
    人家本来是想打游戏,礼貌的问下,你还当真了
    jackqian
        34
    jackqian  
       1 day ago
    只适用于本地推理,又不需要自己训练,感觉区别不大吧
    jpyl0423
        35
    jpyl0423  
       1 day ago
    rocm 哪里有问题么,最近跑了个去码的任务还行
    emberzhang
        36
    emberzhang  
       1 day ago
    @afkool macmini 最高只能配到 64G 内存
    zhanying
        37
    zhanying  
       1 day ago
    显存大,虽然速度慢好歹能跑,用 vulkan 后端就行了,rocm 纯坑
    knva
        38
    knva  
       1 day ago
    跑 llm amd 有什么问题吗? 一万多能买的 128G 的 nvidia 设备了?
    94
        39
    94  
       1 day ago
    一直不能理解个人跑本地模型的目的是什么。是搞开发?还是纯好奇想玩一玩。花两三万玩一下也太奢侈了吧。
    afkool
        40
    afkool  
       1 day ago
    @padeoe 对了大佬,多余问下,Mac 有啥好处?我看 395 ,哪怕屏幕素质高的笔记本 128G (比如玩家国度的幻)才 2 万。。Mac Studio 128G 都本着 4 万去了
    fredweili
        41
    fredweili  
       1 day ago
    没事别爱操心,别人买啥关你啥事?有钱自己去买自己玩
    meteora0tkvo
        42
    meteora0tkvo  
       1 day ago
    早几年前,训练 ai 只能用 nVidia 卡,现在才逐渐支持 amd 的卡而已
    fredweili
        43
    fredweili  
       1 day ago
    @afkool 苹果的东西一向是内存硬盘加价成金子,大家觉得好那是入门丐版,3000 多的不买 mac 你能找到哪怕能看到尾灯的?
    afkool
        44
    afkool  
       1 day ago
    @emberzhang 说错了。是 Mac Studio 。
    不过我看来看去。。。感觉还是买个 rog 幻 x 划算啊。也不重,出去玩日常还能玩。
    qW7bo2FbzbC0
        45
    qW7bo2FbzbC0  
       1 day ago
    @Gemini4422335 #3 怎么出内存?还能加内存?
    babymonster
        46
    babymonster  
    OP
       1 day ago
    @fs418082760 说不定也是呀
    babymonster
        47
    babymonster  
    OP
       1 day ago
    @94 本地部署如果有 CUDA 的生态的话,这个可以做成无限 token 调用呀,生图生视频
    babymonster
        48
    babymonster  
    OP
       1 day ago
    @fredweili 是呀,我们凑钱买了两台了呀,他只是想单独买呀
    94
        49
    94  
       1 day ago
    @babymonster #47 ,算力差太大了吧…… 速度能看到交付的产物差,交付结果能看的就速度慢。
    现在本能跑能用(生产力提升)的就只有翻译能力或者对话吧。其他的差距太明显,要不然就是当玩具,绕过限制玩一下涩图生成?
    fcten
        50
    fcten  
       1 day ago
    395 1w2 能买到的时候是真划算,应该是本地部署性价比最高的选择了,现在的价格嘛也就那样。
    再好一点的选择是 M5 Max 128G 。

    想要用 N 卡的,我只推荐两个:4090 48G (双卡) 或 RTX PRO 6000 ,但是这两个均没有保修。小白慎重考虑。
    Jetson 系列和 DGX 系列都不适合个人使用,买来纯属吃灰,买前面的至少还能打游戏呢[doge]
    sh1qi
        51
    sh1qi  
       1 day ago
    @qW7bo2FbzbC0 ai max+ 395 是核显占用内存做显存的
    huaweii
        52
    huaweii  
       1 day ago via Android
    @fcten 苦等 M5 max 和 ultra 的 mac studio
    sh1qi
        53
    sh1qi  
       1 day ago
    @xtreme1 感谢岁月史官
    xiaomushen
        54
    xiaomushen  
       1 day ago
    @babymonster 人家也就 2 万预算吧?你一下子翻倍了。也许两万块对你来说不算啥,但对大部分人,恐怕不是笔小钱
    zoozobib
        55
    zoozobib  
       1 day ago
    turboquant 、dflash 后的 395 更没优势了 , 吃的多和跑得快完全不是一个维度
    Daitabashi
        56
    Daitabashi  
       1 day ago
    英伟达的卡 显存是和算力绑定的 为了大显存买 5090 不合算
    AI Max 类似苹果的统一内存 想要多少焊多少 不用为用不到的计算性能买单
    diudiuu
        57
    diudiuu  
       1 day ago
    买 dgx spark 的也是韭菜啊
    nightlight9
        58
    nightlight9  
       1 day ago
    jetson 都出来了,哪点比得上 395 了?
    shiloh595
        59
    shiloh595  
       1 day ago   ❤️ 2
    @xtreme1 神探
    MCVector
        60
    MCVector  
       1 day ago
    我买了两个 AMD AI Pro R9700 卡,感觉还行? Vulkan backend 性能有时比 ROCm 略好一点。
    xiaomushen
        61
    xiaomushen  
       1 day ago
    @MCVector 前两年是真的很坑,今年很多坑都补上来了。当然,肯定不如 Cuda 好用
    geekvcn
        62
    geekvcn  
       1 day ago   ❤️ 1
    英伟达水军是真的多,AI 小白不懂装懂的也真是多。
    rammiah
        63
    rammiah  
       1 day ago
    感觉反了
    Curtion
        64
    Curtion  
       1 day ago
    我就买了 395 ,1.2w 的价格,128G 显存的还有哪个机器可以做到? 而且推理不一定要用 CUDA 啊,我连 ROCm 都没用,我用的是 vulkan 缺点就是用不了 DFlash, 跑 27B 稠密模型瓶颈在算力上, 但是可以相同速度跑 122B-A10B 的 MOE 模型
    neptuno
        65
    neptuno  
       1 day ago
    他可能也就想想,买回来更多是打游戏
    zycode
        66
    zycode  
       1 day ago
    主要是硬件性价比高,不过 rocm 确实是容易各种不兼容
    catazshadow
        67
    catazshadow  
       1 day ago via Android
    Rocm 最大的坑是明年就不支持老卡了
    babymonster
        68
    babymonster  
    OP
       1 day ago
    @94 你用过 z-image 吗?我感觉他这个配合 ComfyUI 来生图还是挺好的呀,不光是生图像,什么 TTS 、ASR 都还好呀
    babymonster
        69
    babymonster  
    OP
       1 day ago
    @fcten 专业级显卡跟消费级显卡需要有打游戏的这个对比吗?那 H100 和 H20 难道这种显卡也要去打游戏吗?
    babymonster
        70
    babymonster  
    OP
       1 day ago
    @Curtion 只能跑 27B 吗? GTP OSS 120B 可以跑吗?而且 AMD 可以做算力堆叠或者串联吗
    yoshiyuki
        71
    yoshiyuki  
       1 day ago
    便宜和好买
    jaoyina
        72
    jaoyina  
       1 day ago
    @babymonster

    三,四万现在本地能跑多大的模型了?
    xiaomushen
        73
    xiaomushen  
       1 day ago
    @babymonster Qwen3.6 27b dense 模型,非常强了。两万块就能跑,不是挺好么?你非要推荐 4 万以上的...瞧不起别人没钱?
    xiaomushen
        74
    xiaomushen  
       1 day ago
    @geekvcn 我觉得楼主是个富哥。几万块差价,在他眼里根本不屑一顾
    565656
        75
    565656  
       1 day ago
    AMD 的东西一生黑 我打游戏都买的 285K 没买 x3d ,之前就发现 AMD 待机的风扇就叫不停好讨厌
    adoal
        76
    adoal  
       1 day ago
    因为 Jetson 和 DGX 真的是只能“部署大模型”,除此之外对个人用户没啥用……
    jjx
        77
    jjx  
       1 day ago
    哎,一直想入手创 13pro 联名版 128g+1t, 看着它从 2 万涨到 3 万
    sherg98
        78
    sherg98  
       1 day ago
    很简单,大模型对显存的需求是刚性的,普通人也不可能去买很多张算力卡去组 gpu 服务器,AI MAX+ 395 虽然吐词速度不行但确实能跑,价格也相对来说比较友好
    sherg98
        79
    sherg98  
       1 day ago
    真相同显存不得上两张 4090 48g 或者保修的话 rtx pro 6000 ,这个价格差的就多了
    NiceKlaus
        80
    NiceKlaus  
       1 day ago
    本地部署 1w 左右能行吗,单显卡预算
    94
        81
    94  
       1 day ago
    @babymonster #68 ,可能还是你们有钱吧,几万花着不心疼。
    生图我就是上头的时候跟着突破限制的教程本地跑了一下,劲过去了之后就没在用过了。
    TTS 的话直接调 API 真的很廉价了,而且还有免费额度。ASR 本地跑小模型我的办公电脑没显卡也完全可以胜任。
    v2YngK
        82
    v2YngK  
       1 day ago
    @xtreme1 恶评!你看 op 回不回你😂
    xiaomushen
        83
    xiaomushen  
       1 day ago
    @adoal OP 不差钱,还看不惯别人没钱,嘻嘻
    nrtEBH
        84
    nrtEBH  
       1 day ago
    为什么觉得 AMD AI MAX+ 395 是割韭菜 逻辑在哪里??
    本来就是各有擅长 用割韭菜来形容有点不够技术过于傲慢了
    Curtion
        85
    Curtion  
       1 day ago
    @babymonster #70 GPT-OSS-120B 是一个激活参数只有 5.1B 的 MOE 模型,可以跑,但是实际上这个模型不如 Qwen 3.6 27B ,不过 GPT-OSS-120B 速度确实会更快, 395 更适合 MOE 模型
    94
        86
    94  
       1 day ago   ❤️ 1
    @babymonster #68 ,接#81 ,所以如果现在非要找一个在本地跑的需求,可能就是跑一个 7b 左右的小模型来做 AI 翻译以减少开销?
    不过其实有大量的翻译需求,也是肯定是业务上面的需求,直接用公司给的额度安排翻译任务就好了。个人看文章翻译日常用各家翻译 API 的免费额度我都用不完的……

    如果是作为开发用途的,很明显能在本地跑的模型和线上的参数量级差太多了,是不会考虑的在本地跑的。所以非常不理解花大价钱买显卡、计算模块在本地跑模型的目的到底是为什么。
    babymonster
        87
    babymonster  
    OP
       1 day ago
    就这么说吧,如果你们去买的话,是会买 AMD max 395 还是英伟达的?
    Maybez007
        88
    Maybez007  
       1 day ago
    目前来看 AMD 、mac 确实比 NVIDIA 的方案便宜很多。所以选 NVIDIA 方案的原因是?
    lithiumii
        89
    lithiumii  
       1 day ago via Android   ❤️ 1
    看内存带宽,DGX spark 跟 395 半斤八两(英伟达稍强一点点,但都远不如一个正经显卡)。跑 llm 推理的话反正都是 llama cpp 搞定,不像训练你还要自己折腾 ROCm 。所以哪个便宜买哪个。但买 amd 的好处是你还能获得一个标准的 x86 电脑当服务器用
    cheng6563
        90
    cheng6563  
       1 day ago
    道理都懂,问题是,5090 才几个 VRAM ?难道你还想买 H100 ?
    Miary
        91
    Miary  
       1 day ago
    又不搞训练,买 395 有什么问题?抛开预算谈方案都是扯淡。
    stimw
        92
    stimw  
       1 day ago
    @xtreme1 笑死了
    xiaomushen
        93
    xiaomushen  
       1 day ago
    @babymonster 抛开钱包谈的话,我也想买法拉利
    Vaspike
        94
    Vaspike  
       1 day ago
    @xtreme1 士别三日刮目相待,man?
    SakuraYuki
        95
    SakuraYuki  
       23h 40m ago
    买东西不看价格还行,黄狗的黄金显存是普通消费者能承受的?还是说 op 的 5070ti 有足够显存跑 128b ,普通人谁吃多了没事干买 DGX 专门就为了跑个 ai
    SakuraYuki
        96
    SakuraYuki  
       23h 37m ago   ❤️ 1
    @xtreme1 大脑升级速度遥遥领先各类 llm
    babymonster
        97
    babymonster  
    OP
       23h 35m ago   ❤️ 1
    @xtreme1 我应该是发育了,不知道你的大脑发没发育
    xiaomushen
        98
    xiaomushen  
       23h 34m ago
    @SakuraYuki 主打一个不缺钱嘛
    wclebb
        99
    wclebb  
       23h 32m ago
    主要还是看个人的预算方案吧。
    laminux29
        100
    laminux29  
       23h 30m ago
    各有各的优势。

    AMD 、MAC 主打一个性价比。如果你已经确定,你需要用的某款模型,能在这种平台上面稳定跑,那么选这些非 N 卡平台,性价比更高。

    但如果你经常换模型,或者自己搞各种与 AI 相关的开发,追求灵活性、兼容性、可调试性,那么必然要买 N 卡了。
    1  2  
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   5637 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 256ms · UTC 07:21 · PVG 15:21 · LAX 00:21 · JFK 03:21
    ♥ Do have faith in what you're doing.