感谢巨硬, Phi-3 Mini 让我八年前的破笔记本也能玩本地大模型翻译了

150 天前
 iX8NEGGn

用 Ollama 跑了下 4B 量化版本,翻译效果已经差不多追上谷歌机翻了,终于可以实现文档翻译自由了。

2671 次点击
所在节点    分享发现
13 条回复
iX8NEGGn
150 天前
打脸了,试着翻译了几篇 PDF ,中文不太行,有的地方还多嘴,甚至有乱码。
lovestudykid
150 天前
听说过拟合比较严重,刷榜的产物
passive
149 天前
估计训练的人叫 Bob ,因为总会出来 Bob:提示符
iX8NEGGn
149 天前
@passive @lovestudykid 看到介绍说 Mini 就能媲美 Chat-GPT3.5 ,把我给激动的,14B 不得起飞噜,诶,又被骗了。
Chad0000
149 天前
这种新闻都是说打脸 GPT ,最终也不知道打的是谁的脸。

我铁打的 ChatGPT Plus 一直开着就挺好的
qilme
149 天前
论文里说了两个主要缺点,一个是只支持英文,一个是知识库偏少
haiku
149 天前
还是 llama8b 吧
june4
149 天前
内存不差的话,感觉 4b 还是比 8b 之类的差不少,反正性能一样
fredweili
149 天前
翻译还是得 gpt ,llama3 也不行
weilongs
149 天前
op 用什么工具翻译的? 沉浸翻译接入的 ollama 嘛?
iX8NEGGn
149 天前
@weilongs 不是,用的 memoQ ,加上自己写翻译插件( https://v2ex.com/t/981110 ),昨晚快速对接了下 Ollama 的 API ,还没 push ,没有译后编辑需求的话,沉浸式翻译等浏览器插件更方便吧,拖入浏览器就行。
weilongs
149 天前
@iX8NEGGn 哦 我尝试了沉浸式翻译,进行处理还可以。Phi 感觉不太行,我更喜欢微软另一个小模型:wizardlm2:7b
SuperMaxine
148 天前
目前用来翻译的本地能跑的大模型我就感觉 qwen-14b 还不错,参数量小的基本都没法看,国外的大模型比如 mixtral 、llama3-8b 之类的经常会中英混杂,翻译结果里夹生漏个一两部分不翻译。用来做中英互译任务还是得国内这些由足够中文预料进行训练的。不过就这感觉也打不过在线模型比如 kimi 之类的,和 gpt-3.5 的翻译比稍微差一点点,更打不过 gpt4 了,只能说勉强能用,通顺程度上还是不行。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1035439

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX