问一个大模型本地部署的问题

29 天前
sakujo  sakujo

在 pc 上跑了 ollama ,想在软路由的 docker 上布置个 open-webui 供家里其他设备使用。部署好了,但是 open-webui 一直找不到模型。 我确定 ollama 的服务搭的没问题,环境变量也改了,在局域网的其他机器上都能访问到。 open-webui 的 ollama 设置里也改成了 pcip:11434,但 open-webui 就是连接不到 ollama ,有没有懂得麻烦给指导一下

1594 次点击
所在节点   问与答  问与答
4 条回复
andy20160606
andy20160606
29 天前
11434 端口 是不是没打开,把防火墙先关掉试试呢
sakujo
sakujo
29 天前
@andy20160606 #1 应该是没问题,我在局域网其他设备上访问 pcip:11434 ,都能显示 Ollama is running
gaobh
gaobh
29 天前
在不在一个网段
me007
me007
25 天前
猜测 是 跨域原因

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1108333

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX