Mac mini 适合跑什么本地模型?

1 天前
 silencelixing
我跑了一个 llama2 ,速度好慢啊
curl -X POST http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt":"Why is the sky blue?"
}'
用官方的指令,竟然花了 1 分多钟,才回答完……
大家的 mac mini 跑的都是什么本地模型?
159 次点击
所在节点    Mac mini
0 条回复

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1096792

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX