V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
V2EX  ›  Ollama
Chisa 有没有最近用天翼云或者 ollama 的朋友
程序员  •  Chisa  •  11 days ago  •  Lastly replied by ayasealter570
17
Livid 如果你想测试 Planet 里集成 Gemma4 的最新效果
Planet  •  Livid  
PRO
 •  Apr 14  •  Lastly replied by diudiuu
7
Livid 在 Planet 里配上了 ollama 驱动的 gemma4
Planet  •  Livid  
PRO
 •  Apr 3  •  Lastly replied by Livid
1
xuzhijian24 有没有 openclaw 调用本地 ollama 大模型的
问与答  •  xuzhijian24  •  Mar 7  •  Lastly replied by hiccup00
8
wenerme LLAMA CPP 比 Ollama 快得多
程序员  •  wenerme  •  Nov 23, 2025  •  Lastly replied by mooyo
22
DejavuMoe 在 n8n 中使用 Ollama 的本地 LLM 模型
Local LLM  •  DejavuMoe  •  Nov 24, 2025  •  Lastly replied by DejavuMoe
3
Solix Ollama 正在测试云 API 服务,目前免费爽刷
  •  1   
    分享发现  •  Solix  •  Sep 24, 2025  •  Lastly replied by molton
    3
    wenkgin AI 本地化部署的方式
    Local LLM  •  wenkgin  •  Dec 4, 2025  •  Lastly replied by horizon
    44
    cat Ollama 最新的桌面客户端有开源吗?
    问与答  •  cat  •  Aug 19, 2025  •  Lastly replied by cat
    5
    coefu llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。
    Local LLM  •  coefu  •  Oct 29, 2025  •  Lastly replied by coefu
    6
    isSamle 有没有这样的项目啊
    程序员  •  isSamle  •  Apr 10, 2025  •  Lastly replied by isSamle
    10
    littlemis 请问此配置如何加速 ollama ds-r1 32b 的速度,好慢
    Local LLM  •  littlemis  •  Mar 18, 2025  •  Lastly replied by littlemis
    4
    gtese Ollama 拉模型不搞小动作了?
    OpenAI  •  gtese  •  Mar 4, 2025  •  Lastly replied by DICK23
    4
    BaconiOS ragflow 的聊天内容只显示一半
    问与答  •  BaconiOS  •  Mar 2, 2025  •  Lastly replied by 5gmobiler
    2
    goashore 有开源的可联网搜索的 ollama UI 项目推荐吗
    Local LLM  •  goashore  •  Mar 1, 2025  •  Lastly replied by coefuqin
    14
    v2dev NVLink 对显卡集群的影响有多大?
    NVIDIA  •  v2dev  •  Feb 17, 2025  •  Lastly replied by mengban
    19
    cfer ollama 绕过本地下载 deepseek 大模型文件方法
    问与答  •  cfer  •  Feb 17, 2025  •  Lastly replied by hackroad
    2
    mrleft ollama 如何手动下载模型?
    Local LLM  •  mrleft  •  Feb 20, 2025  •  Lastly replied by h4ckm310n
    15
    sakujo 问一个大模型本地部署的问题
    问与答  •  sakujo  •  Feb 2, 2025  •  Lastly replied by me007
    4
    xshell 史上最简洁的 Ollama 交互页面
    分享发现  •  xshell  •  Dec 13, 2024  •  Lastly replied by heijiangjun
    1
    suke119 LightRAG: 轻量级检索增强生成系统
    Python  •  suke119  •  Dec 5, 2024  •  Lastly replied by mdb
    5
    songray 本地跑大模型代码助手还挺好用
    Local LLM  •  songray  •  Sep 24, 2024  •  Lastly replied by tabc2tgacd
    6
    Vitta intel mbp 有办法用 gpu 给 ollama 提速吗
    Local LLM  •  Vitta  •  Aug 13, 2024  •  Lastly replied by Vitta
    6
    zsxzy 目前最快的模型, 微软 Phi-3
    Local LLM  •  zsxzy  •  Apr 26, 2024  •  Lastly replied by xudong
    2
    t41372 llama 3 发布了,我感觉挺猛的...
  •  2   
    Local LLM  •  t41372  •  Jul 24, 2024  •  Lastly replied by kangfenmao
    12
    xmtpw ollama run 报错请教大佬
    Local LLM  •  xmtpw  •  Aug 21, 2024  •  Lastly replied by finalsatan
    4
    xiaohupro Ollama 运行 Llama2 大模型,怎么友好的支持中文
    Local LLM  •  xiaohupro  •  Jul 23, 2024  •  Lastly replied by kangfenmao
    13
    hqwuzhaoyi 为 Bob 写了个插件,支持 ollama 服务 bob-plugin-ollama
  •  1   
    分享创造  •  hqwuzhaoyi  •  Mar 16, 2024  •  Lastly replied by barryzhai
    5
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2954 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 80ms · UTC 05:31 · PVG 13:31 · LAX 22:31 · JFK 01:31
    ♥ Do have faith in what you're doing.