为 Bob 写了个插件,支持 ollama 服务 bob-plugin-ollama

261 天前
 hqwuzhaoyi

https://github.com/hqwuzhaoyi/bob-plugin-ollama

但是 llama 的翻译能力有点捉急,各位大佬有没有好主意

1487 次点击
所在节点    分享创造
5 条回复
unclemcz
261 天前
试一下 qwen:7b 及以上,不管准不准,至少翻译出来的句子是顺畅的😃
hqwuzhaoyi
261 天前
@unclemcz 哈哈哈,谢谢,我来试试😆
barryzhai
259 天前
直接用 openai 那个接口就行,不需要写另外的插件,ollama 支持 openai 格式的 api
hqwuzhaoyi
258 天前
@barryzhai 原来是这样,再去试试,奇怪的知识有增加了,我把教程剖出来
barryzhai
258 天前
@hqwuzhaoyi openai 插件填写 ollama 本地 api 记得加上 v1/那个后缀,然后密钥随便写

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1023001

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX