| 有没有最近用天翼云或者 ollama 的朋友 程序员 • Chisa • 11 days ago • Lastly replied by ayasealter570 | 17 |
| 如果你想测试 Planet 里集成 Gemma4 的最新效果
Planet • Livid PRO |
7 |
| 在 Planet 里配上了 ollama 驱动的 gemma4
Planet • Livid PRO |
1 |
| 用 Ollama 部署了一个我之前没听过的大模型 gpt-oss:120b, 发现速度还挺快, 不知道能不能用在 openclaw 上.然后跟 Qwen 做了一下生成速度对比, 可能不太客观.
分享发现 • JoeJoeJoe PRO |
50 |
| 有没有 openclaw 调用本地 ollama 大模型的 问与答 • xuzhijian24 • Mar 7 • Lastly replied by hiccup00 | 8 |
| [求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适? Local LLM • diudiuu • Apr 22 • Lastly replied by qazwsxkevin | 46 |
| 用了一个月的 ollama+zed 感觉体验不错啊,是我误判了什么吗? 程序员 • blueskeletons • Dec 11, 2025 • Lastly replied by wupeaking | 17 |
| LLAMA CPP 比 Ollama 快得多 程序员 • wenerme • Nov 23, 2025 • Lastly replied by mooyo | 22 |
| [分享]本地部署大模型,又开发了一个 Ollama 的 UI 分享创造 • guojam • Nov 9, 2025 |
| 在 n8n 中使用 Ollama 的本地 LLM 模型 Local LLM • DejavuMoe • Nov 24, 2025 • Lastly replied by DejavuMoe | 3 |
| Ollama 正在测试云 API 服务,目前免费爽刷
1 分享发现 • Solix • Sep 24, 2025 • Lastly replied by molton
|
3 |
| AI 本地化部署的方式 Local LLM • wenkgin • Dec 4, 2025 • Lastly replied by horizon | 44 |
| Ollama 最新的桌面客户端有开源吗? 问与答 • cat • Aug 19, 2025 • Lastly replied by cat | 5 |
| 用 Claude Code 和 v0 写了一个基于 Ollama 的本地 RAG 的库/CLI 一体的“玩具” 分享创造 • liliang • Aug 15, 2025 • Lastly replied by xuemian | 1 |
| openai 正式开源了模型 gpt-oss-120b 和 gpt-oss-20b 分享发现 • perfectlife • Aug 10, 2025 • Lastly replied by cloverzrg2 | 20 |
| 容器化部署没有限制使用 CPU 和内存大小 ollama 只能调动一半 CPU 怎么解决 TensorFlow • morencato1 • Mar 20 • Lastly replied by sirk | 6 |
| 我做了一个 Ollama JSONL 批量推理工具,除了 Ollama 还支持 Deepseek 等 OpenAI Style 兼容 API Local LLM • mili100 • Jun 24, 2025 • Lastly replied by mili100 | 2 |
| win 上 ollama 运行 qwen3 最简单实现语音交互的方法是什么 程序员 • crac • Jun 7, 2025 • Lastly replied by echaos | 3 |
| llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。 Local LLM • coefu • Oct 29, 2025 • Lastly replied by coefu | 6 |
| Ollama for amd 项目更新了,目前支持 9000 系显卡,可以跑模型了。 分享发现 • Tree9390 • Mar 24, 2025 |
| 使用 Python 写的大语言模型能力调用 mvc 框架,欢迎使用测试 程序员 • vtwoextb • Mar 18, 2025 |
| 请问此配置如何加速 ollama ds-r1 32b 的速度,好慢 Local LLM • littlemis • Mar 18, 2025 • Lastly replied by littlemis | 4 |
| 半个小时前, ollama 上线了目前单显卡里,最强的中小模型 gemma3
1 Local LLM • tool3d • May 10, 2025 • Lastly replied by mizuhashi
|
51 |
| 请问推荐哪个平台租用 deepseek 本地版的 ollama 云端版本 问与答 • littlemis • Mar 12, 2025 • Lastly replied by xjh1024 | 1 |
| 为 Ollama 添加 APIKEY 鉴权的最简单的方式,防止 Ollama 直接暴露在公网被滥用 Local LLM • mili100 • Mar 12, 2025 • Lastly replied by musi | 6 |
| 大佬们,本地使用 ollama 部署的 DeepSeek-R1-32B 在 anythingllm 中发送图片,它说它没收到,应该怎么做?才能让他帮我识别图片?实现官网那种效果 Local LLM • cander0815 • Mar 11, 2025 • Lastly replied by coefuqin | 4 |
| 本地部署了 ollama+deepseek-r1:70b 和 32b 分享发现 • lefthand2006 • Mar 5, 2025 |
| Ollama 拉模型不搞小动作了? OpenAI • gtese • Mar 4, 2025 • Lastly replied by DICK23 | 4 |
| ollama+docker 部署的 dify+ Linux 放在外网,如何设置才安全? Local LLM • icemanpro • Mar 3, 2025 • Lastly replied by mmdsun | 9 |
| ragflow 的聊天内容只显示一半 问与答 • BaconiOS • Mar 2, 2025 • Lastly replied by 5gmobiler | 2 |
| colab 搭建 ollama 外链的问题 问与答 • visavisa • Feb 17, 2025 |
| 有开源的可联网搜索的 ollama UI 项目推荐吗 Local LLM • goashore • Mar 1, 2025 • Lastly replied by coefuqin | 14 |
| 请问 ollama 等 AI 的第三方客户端,除了 ChatBox 和 CherryStudio,还有更好的选择吗? Local LLM • BearCookie • Jun 4, 2025 • Lastly replied by aero99 | 11 |
| NVLink 对显卡集群的影响有多大? NVIDIA • v2dev • Feb 17, 2025 • Lastly replied by mengban | 19 |
| ollama 绕过本地下载 deepseek 大模型文件方法 问与答 • cfer • Feb 17, 2025 • Lastly replied by hackroad | 2 |
| 使用 openai webui 对接较慢的模型的时候,出现了不该有的重试? OpenAI • phpfpm • Feb 10, 2025 • Lastly replied by phpfpm | 1 |
| ollama 如何手动下载模型? Local LLM • mrleft • Feb 20, 2025 • Lastly replied by h4ckm310n | 15 |
| 问一个大模型本地部署的问题 问与答 • sakujo • Feb 2, 2025 • Lastly replied by me007 | 4 |
| 有使用 gitea 的吗?试试这个 基于 Gitea 和 Ollama (open-webui) 的代码合并(PR)自动检查 推广 • kekxv • Jan 19, 2025 |
| 我做了一个 Ollama 模型仓库镜像站,帮你更快的从 ModelScope 魔搭拉取模型 Local LLM • mili100 • Jan 10, 2025 |
| 基于 tornado 写一个调用 Ollama 中的大模型的框架,供参考 分享创造 • vtwoextb • Dec 27, 2024 |
| 史上最简洁的 Ollama 交互页面 分享发现 • xshell • Dec 13, 2024 • Lastly replied by heijiangjun | 1 |
| LightRAG: 轻量级检索增强生成系统 Python • suke119 • Dec 5, 2024 • Lastly replied by mdb | 5 |
| 代码助手用 cursor pro 划算还是 cursor+ollama 本地部署划算? Local LLM • raw0xff • Nov 11, 2024 • Lastly replied by poorcai | 28 |
| 在 mac 上安装 ollama,过几天再打开,为什么之前下载到本地的模型 ollama list 识别不了? Local LLM • cmichael • Nov 1, 2024 |
| Meta 发布了 llama3.2,我试了一下 ollama 版本,发现这是假的 Local LLM • winglight2016 • Sep 28, 2024 • Lastly replied by yuting0501 | 14 |
| 本地跑大模型代码助手还挺好用 Local LLM • songray • Sep 24, 2024 • Lastly replied by tabc2tgacd | 6 |
| 请问哪个支持 idea 系列引擎的且支持 ollama 的代码补全插件比较好用? 程序员 • v2user89 • Sep 2, 2024 • Lastly replied by v2user89 | 4 |
| 初步完成了一个 swiftui 的 macos 本地的 chatui,大家有兴趣可以帮忙提点意见 问与答 • treblex • Aug 24, 2024 |
| intel mbp 有办法用 gpu 给 ollama 提速吗 Local LLM • Vitta • Aug 13, 2024 • Lastly replied by Vitta | 6 |
| Mac 上 VS Code 使用什么插件可以使用 Ollama 本地模型? Local LLM • adrianzhang • Dec 12, 2024 • Lastly replied by adrianzhang | 7 |
| 使用 RAG-GPT 和 Ollama 搭建智能客服 OpenAI • AIInception • May 22, 2024 |
| 目前最快的模型, 微软 Phi-3 Local LLM • zsxzy • Apr 26, 2024 • Lastly replied by xudong | 2 |
| 感谢巨硬, Phi-3 Mini 让我八年前的破笔记本也能玩本地大模型翻译了 Local LLM • iX8NEGGn • Apr 26, 2024 • Lastly replied by SuperMaxine | 13 |
| llama 3 发布了,我感觉挺猛的...
2 Local LLM • t41372 • Jul 24, 2024 • Lastly replied by kangfenmao
|
12 |
| ollama run 报错请教大佬 Local LLM • xmtpw • Aug 21, 2024 • Lastly replied by finalsatan | 4 |
| Ollama 运行 Llama2 大模型,怎么友好的支持中文 Local LLM • xiaohupro • Jul 23, 2024 • Lastly replied by kangfenmao | 13 |
| 为 Bob 写了个插件,支持 ollama 服务 bob-plugin-ollama
1 分享创造 • hqwuzhaoyi • Mar 16, 2024 • Lastly replied by barryzhai
|
5 |
| 推荐各位利用 ollama 在自有电脑上跑大模型,使用非常方便 Local LLM • keepRun • Jul 18, 2024 • Lastly replied by kangfenmao | 24 |
| ollama 平时不使用的时候会占用内存吗? Local LLM • coinbase • Feb 23, 2024 |
| 有人买英特尔 14 代 ultra 系列的 cpu 了么,里面的 npu 运行 ollama 速度大概什么样? Local LLM • PungentSauce • Feb 22, 2024 • Lastly replied by Track13 | 1 |
| ollama 推出 windows 版的 preview,可以在本地跑大模型,在老机器上跑感觉效果不错 Local LLM • frankyzf • Feb 16, 2024 • Lastly replied by frankyzf | 6 |