使用大模型翻译的成本居然比传统机器翻译便宜 25 倍

363 天前
 syaoranex

先说完整的结论:

当前使用 [ API 定价为 0.005 元/千 Token ] 的 [国内某大模型] 进行 [英译中] 方向的翻译,其成本约是使用 [国内的几家大厂例如 XX 云] 的机器翻译 API 的 1/20~1/30.

不敢相信!大家也可以看看下面的计算过程是否有纰漏。

附上测试(随便)选用的英语文本、大模型翻译结果、传统机器翻译结果

本次测试:

翻译 Prompt 是很简单的一句话:"将下面的英文文章翻译成准确流畅的中文给我,不要遗漏原文信息:..."

附 1:使用 gpt-3.5-turbo-1106 翻译上述例子的成本:

(这里输入输出与上文的模型不同是因为两个模型采用了不同的分词方法)

附 2:国内主要厂商机器翻译 API 定价:

可以看到主要厂商的机器翻译 API 定价都在 50 元/百万字符左右,尽管使用量大的话肯定是会更便宜的,但应该是做不到大模型约 2 元/百万字符的成本档位。

大模型翻译缺点:可能会遗漏少数原文信息,生成速度慢,存在审查机制可能拒绝翻译;机器翻译缺点:相较大模型不够流畅准确、贵。

以前我以为使用大模型翻译英文很贵,但是在经过一番计算后,发现两者的成本有量级的差别,即使是使用 GPT-3.5 来翻译也是如此。

试问如果上述计算准确,传统机器翻译产品如今还有什么意义呢?

2191 次点击
所在节点    分享发现
6 条回复
F798
363 天前
没意义。。
terence4444
363 天前
不说价格,就是翻译质量还高一个档次。
codehz
363 天前
你说的这一点正是大模型取代传统模型/软件的原因
guotie
363 天前
能拿现成的大模型自己套个接口吗?我看好像有接口
koto
363 天前
是的。甚至可以让传统 MT 做第一次翻译,AI 再处理
gam2046
363 天前
作为只有二流子英语水平的我。

现在,一般小段落的英文自己直接看。

大篇幅的英文,直接 Edge Copilot ,“请你根据当前网页内容,使用中文总结,并尽可能详尽告诉我,当前网页里写了什么”,然后喝口咖啡,静静的等待结果。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/995018

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX