1
icinessz 3 天前
qwen3:4b-instruct-2507-q4_K_M 本地这种小模型都行
|
2
anghunk 3 天前
我一直在用硅基的 THUDM/glm-4-9b-chat 翻译
|
![]() |
3
wangxiao20170401 3 天前 via Android
换成国内的,用起来确实舒服多了,速度很快
|
4
cokyhe 3 天前
求问:deepseek 有专门翻译接口吗?提问翻译的时候,怎么能仅仅返回翻译结果?
|
![]() |
6
ruanimal 2 天前
感觉纯翻译,豆包的效果就很好了
|
![]() |
7
razertory 2 天前
纯翻译,自己一个人用可以考虑上量化模型平台,比如 Groq 或者 Cerebras 。速度又快免费额度又大
|
![]() |
8
izToDo 2 天前
现在在用免费的 GLM-4.5-Flash ,速度还可以,翻译质量还可以。
|
9
midraos 2 天前
我用的 openai api ,累计充了 100 刀,现在每天送 1M 的 GPT-5 的额度和 10M 的 GPT-5-mini 的额度,用于翻译绰绰有余
|
![]() |
10
xyfan 2 天前
我用在 zotero 中做翻译,由于 PDF 中时常有有行号、乱码、跨页等问题,使用 deepseek 效果比谷歌翻译等传统翻译效果好很多,就是速度稍慢。
|
![]() |
11
wonderfulcxm 2 天前
可以的,接入沉浸式翻译一直开着,每个月不到 3 块
|
12
lin41411 2 天前
|
13
Selune 2 天前
用的腾讯混元的 Hunyuan-MT-7B 在线,质量还行
|
![]() |
14
SeaSaltPepper 2 天前
常年多个模型同时翻译对比,主流模型翻译质量都大差不差,同时使用多个模型基本都能得到最合适的翻译。DeepSeek ,K2, GLM4.5 Air ,Qwen 选一个比较快的就行。
|
![]() |
15
chunhuitrue 2 天前
你用的什么翻译工具?浏览器的插件?求推荐。
|
16
SGL OP @chunhuitrue 虽然沉浸式翻译暴雷了,但是目前体验最佳的感觉还是沉浸式翻译。
日常网页翻译也还较为流畅。 然后 pdf ,epub 等文档翻译也优于传统翻译工具,我也已经翻译了好几本书了 但是,还是要注意,它确实爆过雷,泄露用户数据了。 |
![]() |
17
PositionZero 1 天前 via Android ![]() DeepSeek 官方 API 太慢了。楼上说的 Groq 或者 Cerebras 就不错,速度( TPS )能到 DeepSeek 的几十倍。
|
18
wshjdx 1 天前 via Android
我用在 freshrss 中翻译标题,充值了 100 ,每月用量一块多钱,确实绰绰有余
|
![]() |
20
Zy143L 1 天前
那你纯浪费了..V3 没必要 翻译也用不着 R 系推理 找个小模型 qwen 的或者豆包的 lite 模型都能很好解决
|
![]() |
21
chunhuitrue 11 小时 56 分钟前
@SGL 还好,我没用过这个。我一直都没用过翻译软件,最多就是 mac 自带的选择一段话-->翻译(贼烂)。豆包浏览器插件试过,觉得不好用。卸载了。
目前还在用 mac 自带...所以打算找个合适的。那看来还真没有。 |
22
chspy 11 小时 48 分钟前
我一直用 ppio ,这个国内国外都有,我用着挺稳定的,可以用 WF34BQ
|
![]() |
23
andykuen959595 7 小时 36 分钟前
我用的有道,送了 100 元,还没用完
|