请教一下各位大佬,我想在一台隔离外网的服务器上搭建千问代码这个模型,我现在在服务器上安装了 Ollama ,然后去魔塔那边通过 git clone 下载了通义千问 2.5-代码-14B-Instruct-GGUF 模型文件,发现这个模型文件压缩称 tar 后有 150G ,服务器那边大概只有 200G 空间,估计是不能放进去并解压了。
不知是否有比较小的模型文件资源可以在 win 下载后,上传到服务器中通过 Ollama 启动使用?
我在 win 环境下通过 Ollama 下载的通义千问 2.5-代码-14B 只有 9G 的大小,在魔塔社区下载的确有 150 个 G ,这个是因为 Ollama 那边处理导致的吗?
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.