大佬们,求助本地部署大模型

264 天前
 jjyyryxdxhpyy

有下面几个要求:

1 、本地部署开源的大模型

2 、有知识库管理

3 、可提供接口

有没有满足的产品呀

5858 次点击
所在节点    Local LLM
39 条回复
2kCS5c0b0ITXE5k2
264 天前
ollama AnythingLLM
andytao
264 天前
NoobNoob030
264 天前
1. 大模型单独部署,huggingface 或者魔搭社区看看文档就能部署
2. 知识库管理+接口这种 AI 平台,想傻瓜式开箱即用的,国内推荐 fastgpt ,国外推荐 langflow 。想自己开发就用 langchain
jjyyryxdxhpyy
264 天前
@NoobNoob030 谢谢
jjyyryxdxhpyy
264 天前
@andytao 谢谢,我看看
jjyyryxdxhpyy
264 天前
@emeab ollama 我知道,本地部署了,现在在想怎么集成知识库
andytao
264 天前
andytao
264 天前
楼主考虑的是编程集成吧?

比如用已有知识库训练模型,调用 API 输出想要的结果等,最好把后续细节细化一下,或许有更多有可行性的建议;
seeyourface
264 天前
同问,通过知识库外部引用和使用知识库作为训练集微调模型,有没有这方便的大佬知道哪种方式的效果更好吗
jjyyryxdxhpyy
264 天前
@andytao 是这样,本地部署一个类似 ollama 的服务,集成开源大模型,然后基于这个模型,集成知识库,对面前端来说,可以调用接口,做进一步修改,适配项目
jjyyryxdxhpyy
264 天前
@andytao 谢谢,我看看
Lockeysama
264 天前
本地模型和其它可以分开的话,可以试试 https://github.com/langgenius/dify
支持接入本地模型
tricker1215
264 天前
话说有没那些本地“小模型”。
基于特定的文本内容做成一个问答机器人,文本内容短,但是准确性要求高。
fredweili
264 天前
hugging face 去找找
jjyyryxdxhpyy
264 天前
@fredweili 太难找了
jjyyryxdxhpyy
264 天前
@tricker1215 这不就是,和我要求差不多,本地部署,需要集成知识库
jjyyryxdxhpyy
264 天前
@Lockeysama 可以
NewHere
264 天前
英伟达的 Chat with RTX 呢,那个好像是分析本地文件的
kuqma98
264 天前
Langchain-chatchat
supergeek1
264 天前
https://github.com/chatchat-space/Langchain-Chatchat
这个应该完全符合你的要求,支持本地模型、知识库管理问答、API 页面都有

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1028984

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX