首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
V2EX
›
程序员
大家讨论下自建内网 RAG 知识库和 AGENT 平台
milestance
·
12 小时 34 分钟前
· 388 次点击
公司现在还没有引入飞书等平台,想在小组内试搭一套 RAG 平台,内网有 QWEN 的大模型接口,于是有了下述方案,大家看看是否合适,运行硬件配置不高,无单独 GPU:
1.传统知识库用基于 MARKDOWN 格式的 OUTLINE ,支持团队协作,单点登录,缺点是没有离线功能。
2.RAG 知识库平台和 AGENT 平台选用 FASTGPT ,没有用 DIFY ,感觉 DIFY 要重一点,也没用只聚焦于 RAG 的 MAXKB 。
1 ) LLM 用内网已经有的 QWEN 大模型
2 ) embedding 用本地的 m3e
3 ) rerank 模型也用本地的 bge rerank 模型
3.胶水准备用 N8N ,从 OUTLINE 把知识定期推送到 FASTGPT 。
4.最后是文档的问答模式准备用 NGINX 做拦截嵌入,在 OUTLINE 文档页面做个弹窗把上下文传到后端 FASTPGT
目前尚无回复
rag
fastgpt
qwen
关于
·
帮助文档
·
自助推广系统
·
博客
·
API
·
FAQ
·
Solana
·
806 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 25ms ·
UTC 20:10
·
PVG 04:10
·
LAX 12:10
·
JFK 15:10
♥ Do have faith in what you're doing.
❯