关于在本地部署开源模型的一些问题请教

39 天前
 ddvswgg

大家好,我之前没有这方面的经验,但现在有个小的 project ,想请教咨询一下大家。大致上来说,我有一个 node ,为 40G A100 + 128GB 内存,需要部署的是通义千问 7B 。

  1. 这个配置跑这样的模型 ok 吗?
  2. 想找部署在远端的 node 上的教程,搜索什么关键词比较好?
  3. 这样的部署,大概需要多长的时间呢?
  4. 假设部署好了,想从外部访问怎么做到呢?
  5. 如果再加上 RAG 的话,难度/时间大概是什么样的?
  6. 有没有其它需要注意的地方?

目前看的教程感觉有点乱,希望大家指导,谢谢各位🌹

1052 次点击
所在节点    程序员
9 条回复
ztm0929
39 天前
仔细翻一下 ollama 的文档,应该能解决你的问题,可以实现 API 访问
https://github.com/ollama/ollama
312ybj
39 天前
1. 7B ,7*4 大概要 28G 显存,加上一些推理时的消耗,40G 也够了
2. 你去魔塔社区或者 hugging face 直接搜索 tongyi 7B, 有直接运行的测试代码,不过没有超参调节,需要你自己后续加
3. 看你的需求了,因为还有一些上下文配置,超参调节,终止词配置等等,很多细枝末节,你应该先跑起来
aiqinxuancai
39 天前
7b 拿用的上 A100 ,72B 吧?
312ybj
39 天前
4. 外部访问,你再用 fastapi + sse 就能流失返回数据了
312ybj
39 天前
5. 你先把部署弄好再说,如果你要简单的 RAG ,去看 langchain ,有现成的开源的,看能不能直接用
clvin
39 天前
1. 40G 可以跑 7B 的模型。
2. ollama 是比较方便的部署方式,如果想并发性能更好一些,可以使用 vllm 来推理。
3. 熟练的话就很快,不熟的话照着文档来部署。
4. ollama 和 vllm 都支持兼容 openai API 接口,就是 http 调用。
5. 上 RAG 可以使用集成好的框架,比如 dify 之类的。
6. 上 RAG 的话,还需要 EMBEDDING 和 RERANK 的模型,具体可以看 dify 的文档。
cinlen
39 天前
ollama + dify
zoharSoul
38 天前
我顺便想问下
这种自己部署出来的 api 并发请求能支持多大的 qps 啊?
CynicalRose
38 天前
ollama 在今年四月之前,还是单服务单线程运行,现在已经支持多线程了,需要在服务启动前加参数。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1064422

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX