| 多台 GPU 之间怎么组网互联? mingtdlb • 5 小时 1 分钟前 • 最后回复来自 mingtdlb | 17 |
| 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型 EchoPrince • 9 小时 58 分钟前 • 最后回复来自 EchoPrince | 44 |
| 有没有简单版的 new-api 项目 novaren • 17 小时 55 分钟前 • 最后回复来自 novaren | 6 |
| 部署本地模型 token 输出万能公式 diudiuu • 11 小时 26 分钟前 • 最后回复来自 diudiuu | 3 |
| 本地部署靠不靠谱? jdjingdian • 1 天前 • 最后回复来自 diudiuu | 6 |
| 本地大模型多大显存够用? s2555 • 5 天前 • 最后回复来自 nullyouraise | 13 |
| 想掏一台 Mac mini M4 Pro 64G 跑 gemma4 31b Q4 接 openclaw 处理日常的问题,有人测试过速度吗? Ken1028 • 3 天前 • 最后回复来自 fansttty | 32 |
| 求可靠本地 vibe coding,有八卡的 L20 服务器 sqshanyao • 5 天前 • 最后回复来自 coefu | 2 |
| [求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适? diudiuu • 3 小时 21 分钟前 • 最后回复来自 qazwsxkevin | 46 |
| Gemma 4 31B 大概什么水平,本地部署是不是又成为现实了 unt • 4 天前 • 最后回复来自 xue777hua | 47 |
| 32B 本地 vibe coding 有能用的模型吗 RatioPattern • 7 天前 • 最后回复来自 coefu | 7 |
| 闲置 16GB M1 Pro MBP 跑大模型 ahdw • 8 天前 • 最后回复来自 ahdw | 19 |
| 2 年以后的硬件和本地大模型 workbest • 2 天前 • 最后回复来自 Very0ldMan | 27 |
| 有人用 mac studio 测试过 gemma4 31b 16 吗 wali77 • 14 天前 • 最后回复来自 nrtEBH | 4 |
| gemma4:e4b 的效果出乎意料, 1050ti 也能很好的生成文章 andyskaura • 14 天前 • 最后回复来自 iango | 29 |
| 谷歌的 Gemma 4 怎么样,有必须要本地弄一下吗 wszzh • 14 天前 • 最后回复来自 longxinglink | 18 |
| 家用机带宽太小玩不转 local llm 啊 Eleutherios • 7 天前 • 最后回复来自 Eleutherios | 17 |
| 为什么 Qwen 吹这么牛,但是用起来体验这么拉啊,它的真实能力究竟怎么样 unt • 17 天前 • 最后回复来自 cvbnt | 5 |
| macbook 32G 内存, M5 芯片本地跑大模型有推荐的吗? Hermitist • 11 天前 • 最后回复来自 Liu6 | 25 |