firefox 有个开源的本地大模型 https://future.mozilla.org/blog/introducing-llamafile/,什么样的机器能跑动

359 天前
 mrfox
小主机行吗
2412 次点击
所在节点    Firefox
18 条回复
qping
359 天前
没说要什么样的机器,但是说了 Supported OSes and CPUs 和 GPU support
https://github.com/Mozilla-Ocho/llamafile

要不你下了试试?
godmiracle
359 天前
我用 m1 就能跑起来。x86 的好像不行,没跑成功
qping
359 天前
amd 7950x 可以跑,还挺顺畅的
有意思
mrfox
359 天前
@qping 谢谢
bfdh
359 天前
i7-12700 Linux 可以跑
Seanfuck
359 天前
貌似是可以直接运行的文件:
AMD64 微处理器必须具有 SSSE3 。否则 llamafile 将打印一个错误并拒绝运行。这意味着,如果你有一个英特尔 CPU ,它需要是英特尔酷睿或更高版本(大约 2006 年以上),如果你有一个 AMD CPU ,那么它需要是推土机或更高版本(大约 2011 年以上)。如果你有一个较新的 AVX CPU ,或者更好的 AVX2 ,那么 llamafile 将利用你的芯片组特性去更快。目前还不支持 AVX512+运行时调度。

话说支持中文吗?
weilongs
359 天前
两周前看到这个跑过一下,我用的 MacBook pro 2019 款哪个 intel 的本子跑了一下,提出一个问题风扇就起飞了。体验感觉还不错,我体验了 LLaVA 1.5 和 Mistral 7b 。
jifengg
359 天前
有意思,去体验一下
titan2022
359 天前
4800H 也能跑,速度不算快 有中文
paopjian
359 天前
用默认模型跑起来崩溃,用 Mistral 试了试,真不错啊,速度也有
zsh2517
359 天前
@qping #3 同 7950x ,远程下载到 NAS 了,晚上回去试试
zsh2517
359 天前
NAS 上下完了一个模型,先试了试,可能 D1851 太老了,而且这种活可能本来也不适合 CPU 跑。速度感觉一般,而且没有 stream 模式。晚上拿台式机试试

---

对话截图 => ![]( https://s2.loli.net/2023/12/29/vFrw1DkhxbVc4m8.png)
控制台截图 => ![]( https://s2.loli.net/2023/12/29/yCoOD8TmZgkfIeG.png)

宿主环境 D-1581 32 核 64G ,pve LXC 容器
运行参数 ./llava-v1.5-7b-q4-server.llamafile --host 0.0.0.0 --port 1234 --threads 32
woyao
359 天前
@zsh2517 图一对话中的拼音很诡异……
elonlo
359 天前
我 windows 都跑起来了。i5-13500H
NoOneNoBody
359 天前
@woyao #13
同感
bang chu xian ni... 看上去也不是给歪果仁阅读的
Rache1
359 天前
速度还行,就是不知道为啥,有时候会卡住 😂
iold
359 天前

根据说明 Windows 下载完,加个.exe,双击执行,会自动打开浏览器。
qping
356 天前
@Seanfuck 支持

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1004272

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX