1
xmumiffy 131 天前 via Android 1
一次性太长都不行,上传文档只是抽其中一部分做 RAG 的,不是能让你全文翻译的。
轮子已经有了:沉浸式翻译 |
2
mumbler 131 天前
可以用 Flash AI 一键部署本地大模型,提供专门的长文档翻译功能,支持无限长度,专用工作流一段段的翻,稳定可靠,推荐 gemma2 9B 模型(需 6G 显存或内存),最好用 GPU ,如果用 CPU 也可用,但可能会比较慢
https://flashai.com.cn/t |
3
neteroster 130 天前 via Android
都是分段的,没人一次性翻全部
|
4
heganyuliang 130 天前
|
5
love060701 130 天前 via iPhone
我在 aistudio 用 Gemini 翻译过一本 15 万 token 的书,效果可以,就是要不断提升继续。Gemini 200 万上下文质量有保证,可以把过滤等级调低就不会拦截了。完全免费。
|
6
Yamaha 130 天前
刚试过 1.5 万字的文档,我基本都是一小部分一小部分翻译,就算是同一个模型,同一个指令,每次翻译的文字都不一样。我感觉 GPT4-g0 的翻译更好一点。
|
7
Nostalghia OP 谢谢各位,就不一一回复了。
|
8
aec4d 108 天前
当前可以用 gpt4o-mini, 支持 16k token 的输出,价格也便宜,16k token 差不多是两万词了
|