这可能是目前最简单的本地大模型+知识库部署方案
大模型所有基础功能永久免费
功能特色
无需 docker,无需命令行操作,无需 GPU
基于 ollama ,直接将大模型打进包,选择一个大模型,下载 zip 包,解压,运行即可
无需任何配置,开箱即用
支持 win10,win11 ,mac11+
图形界面,不用自己安装 webgui
自带 embedding 库,支持上传 pdf,docx,txt,md 创建知识库
文档翻译工作流,一次翻译整本书
知识树,从大模型压榨数据
离线使用,所有数据都在本地,充分保护隐私
更多的应用正在开发中:视频字幕翻译,长文写作工具...
本地大模型的三大优势
1.隐私敏感数据保护
2.不依赖网络,可在无网环境使用
3.无限 token ,对于密集计算应用,比如翻译整本书,比云端订阅更划算
欢迎大家下载使用,多提意见
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.