V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
feelapi
V2EX  ›  程序员

GLM 是什么情况?

  •  
  •   feelapi · 14 小时 12 分钟前 · 4314 次点击

    买 pro 套餐将近一个月,烧掉 16 亿 token ,我算 pro 用户了吧,写代码角度来看,算是合格的工程师了,我主要用 C++开发。

    vscode+claude code cli,使用 glm 文档给出的配置直连,最近几天经常并发受限,这个能理解,但是下面这个经常出现的错误是什么意思?

    API Error: 400 {"type":"error","error":{"message":"API 调用参数有误,请检查文档。Request 188024 input tokens exceeds the model's maximum context length 202752","code":"1210"},"request_id":"20260302194338de7319971d9142ab"}

    188024 > 202752

    现在代码都直接交给大模型运算了?着什么算数?

    算例紧张可以理解,但是频繁出现这个错误,是 claude code 的锅?是有人要害朕?

    为啥出现这个?我没干什么,就是让他帮我翻译文章。

    再发一个吉祥号码的:

    API Error: 400 {"type":"error","error":{"message":"API 调用参数有误,请检查文档。Request 181818 input tokens exceeds the model's maximum context length 202752","code":"1210"},"request_id":"20260302164128475cc4e7028843b6"}

    181818 > 202752

    如果是这个所谓的 input token 和我理解的不一样,是不是可以换个说法?

    12 条回复    2026-03-03 17:09:57 +08:00
    zhonghao01
        1
    zhonghao01  
       14 小时 3 分钟前
    有并发上限,是 1 还是 3 来着,文档有些。

    加 GLM 企业微信客服咨询,他们能告诉你答案, 发工单 群里问基本不叼你的, 发这里更没用。
    TimPeake
        2
    TimPeake  
       13 小时 53 分钟前
    调用频繁了 会有莫名其妙的错误,感觉他们打击灰产过头了。另外,最近三天两头崩是常态。正改 bug 呢,用不了了 能想象那种心情吗😡
    vpjacob
        3
    vpjacob  
       13 小时 47 分钟前
    同,昨天切换 minimax-m2 可以了
    poorcai
        4
    poorcai  
       13 小时 45 分钟前
    @vpjacob #3 GLM5 和 minimax M2.5 哪个更值得入手呢?
    vpjacob
        5
    vpjacob  
       13 小时 44 分钟前
    @poorcai 昨天才用 minimax-m2 ,暂时没感受差距。感觉不错
    feelapi
        6
    feelapi  
    OP
       13 小时 41 分钟前   ❤️ 1
    我也买了 minimax m2.5 ,严重怀疑针对我,没花钱用免费的时候还好,花了钱结果完全是个猴子,弱智死了。看来这些大模型克我,哈哈哈哈哈
    vpsvps
        7
    vpsvps  
       13 小时 41 分钟前
    自己部署的 GLM 就经常提示这个 ,是不是上下文太小导致的,minimax 之前就没这个问题,qwen 3.5 还没试
    stanley0black
        8
    stanley0black  
       12 小时 2 分钟前
    我也遇到过类似的报错,把 cc switch 卸载了,重新手动配就好了。模型不是 GLM
    feelapi
        9
    feelapi  
    OP
       11 小时 50 分钟前
    @stanley0black
    我没用 ccswitch,用的时候反倒很少出现。现在是直接配置链接 glm 的,才出现这么多错误。我把 cc 又装上了,看看什么情况
    listenerri
        10
    listenerri  
       9 小时 55 分钟前 via Android
    遇到过,过会儿自己就好了
    goodboy95
        11
    goodboy95  
       8 小时 21 分钟前 via Android
    大模型一般要求“输入 token+最大输出 token 小于 总上下文 token”,glm5 的最大输出好像是 32000 ?
    不过正常情况下,返回的错误信息应该把这个问题说明白了
    numb911
        12
    numb911  
       5 小时 57 分钟前
    付费之后的 minimax-2.5 有点蠢,我还买的一年的订阅
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2832 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 15:06 · PVG 23:06 · LAX 07:06 · JFK 10:06
    ♥ Do have faith in what you're doing.