xuzhijian24
V2EX  ›  问与答

有没有 openclaw 调用本地 ollama 大模型的

  •  
  •   xuzhijian24 · Mar 6 · 1816 views
    This topic created in 71 days ago, the information mentioned may be changed or developed.

    openclaw 调用本地 ollama 大模型,千问 7B 的模型,感觉就是个智障。

    有没有大神可以讲讲自己的体验

    8 replies    2026-03-07 19:28:35 +08:00
    root71370
        1
    root71370  
       Mar 6 via Android
    参数决定智商 无解
    Censhuang
        2
    Censhuang  
       Mar 6
    今天刚研究,差两代出来。qwen 7b 应该是 qwen2.5 。中间跨越了 qwen3 ,qwen3.5
    default996
        3
    default996  
       Mar 6
    在 macmini 上将了 qwen8b ,然后那个输出速度太慢了 ……
    iv8d
        4
    iv8d  
       Mar 7
    可以是可以,要么慢,要么傻,你愿意等大半天出结果吗
    tthem
        5
    tthem  
       Mar 7
    m2max 部署 qwen35B q4 模型,问一个问题,要等 6 分钟出结果。。放弃了
    tthem
        6
    tthem  
       Mar 7
    @tthem 不过傻倒是不怎么傻,一些基础的都能给你搞出来
    zz177060
        7
    zz177060  
       Mar 7 via iPhone
    还没有实践,但是我理想的也是吊用本地 app 应该自动本地模型优先,因为就只打开 app ,这个跟模拟鼠标一样,不应该全部让云端实现🙁但是我不懂代码🥲
    hiccup00
        8
    hiccup00  
       Mar 7 via Android
    同样觉得这个比较有需求
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2913 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 71ms · UTC 06:28 · PVG 14:28 · LAX 23:28 · JFK 02:28
    ♥ Do have faith in what you're doing.