ARPK - 让本地大模型帮你翻译,兼容 DeepLX API

22 天前
 M9l7chlLGv

玩 SillyTavern 的时候突发奇想:能不能让模型自己翻译自己?

看了下好像没人做,于是就写了: https://github.com/moeru-ai/arpk

本地搭建好 Ollama,通过 node.js npx 运行 ARPK 服务端:

ARPK_MODEL="llama3.1" npx arpk

它通过 DeepLX 相同的端口和 API 提供服务,所以应该能兼容任何支持 DeepLX 的应用

await fetch('http://127.0.0.1:1188/translate', {
  body: JSON.stringify({
    source_lang: 'JA',
    target_lang: 'ZH',
    text: '雨の季節が過ぎ 澄み渡る空を 眺めて独り想フ'
  }),
  method: 'POST'
}).then(res => res.json())
// {
//   alternates: [],
//   code: 200,
//   data: '雨季过后,晴朗的天空下我独自遐思。',
//   id: 1519129853500,
//   method: 'ARPK',
//   source_lang: 'JA',
//   target_lang: 'ZH'
// }

Docker 镜像还没写,以后会有。

1399 次点击
所在节点    分享创造
5 条回复
zagfai
21 天前
翻译效果有限吧
M9l7chlLGv
21 天前
@zagfai 有优化空间,可以更换模型或者自定义 prompt 以尝试得到更好的结果
zagfai
21 天前
主要是本地,硬件有限
M9l7chlLGv
21 天前
@zagfai 这就没办法了,我也不想这个项目太复杂,所以只依赖了 ollama 的 js 库
不需要本地翻译的话 DeepLX 会更方便
unclemcz
21 天前
@zagfai #3 本地模型可以试一下 qwen2:1.5b ,翻译效果和 qwen1. 5 比,有很大提升。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1068946

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX