请各位推荐一下,有没有什么速度快支持语言多的翻译模型

229 天前
 haozi23333

我现在用的是, https://huggingface.co/google/madlad400-3b-mt 一个量化之后的模型, A5000/RTX4090 可以跑到 90token/s 单任务的速度

例子代码来自 https://github.com/huggingface/candle/blob/main/candle-examples/examples/quantized-t5/main.rs

有没有速度比这个再快点的模型(要尽可能支持主流语言), 或者可以优化执行速度(付费支持, 如果能达到单任务 200~300token/s A5000 的卡, 200$起).

tg 可以直接联系我 @chino23333 微信的话您留我联系您 (国内下午 4 点后在线

1072 次点击
所在节点    外包
1 条回复
csulyb
228 天前
我也想知道

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1039955

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX