V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
qiubo
V2EX  ›  程序员

AI 编程时,使用英文进行输入输出是否更加节省 token

  •  
  •   qiubo · 55 天前 · 1639 次点击
    这是一个创建于 55 天前的主题,其中的信息可能已经有所发展或是发生改变。

    下面是 kimi 给出的结论,是否正确

    image

    7 条回复    2025-08-08 10:37:40 +08:00
    cmos
        1
    cmos  
       55 天前   ❤️ 1
    用 BPE 分词器,英语子词合并充分,中文语义密度高,不存在也不可能存在 40%这么高的差距。相信月之暗面,不如相信我是秦始皇。搞这些,不如前置一个小模型实现精炼、去除赘余,这才是真正的提高效率和利用率。
    TimePPT
        2
    TimePPT  
    PRO
       55 天前
    @imes 哈哈哈对的。
    这个跟 tokenizer 算法强相关,各家各模型其实是有差的。
    另外,OpenAI 家自己有个 token 计算器,如果有兴趣自己试试就知道了。
    https://platform.openai.com/tokenizer
    TimePPT
        3
    TimePPT  
    PRO
       55 天前
    另外,现在很多模型服务厂商是有 cache 的,走 cache 也会便宜不少——比如 OpenAI 家的说明: https://platform.openai.com/docs/guides/prompt-caching
    所以你每次请求,多次 context 重复部分实际上花不了多少钱,直接按裸 token 算钱实际上是算多的
    yh7gdiaYW
        4
    yh7gdiaYW  
       55 天前
    会少但没有这么明显,我自己的应用测算下来把输入转为英文能节省 20%-30%的 token ,模型是 4o 。国产模型的话差距应该会更小甚至反过来
    Dlad
        5
    Dlad  
       55 天前
    感觉差异来自“子任务:翻译”。跟信息密度关系倒不大。
    xuanwu
        6
    xuanwu  
       54 天前
    第一个例子,用二楼的 token 计算器测“我爱人工智能” 是 4 个。
    自己先做下实验为好。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1181 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 22ms · UTC 16:56 · PVG 00:56 · LAX 09:56 · JFK 12:56
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.