关于使用 AI 和本地大模型总结聊天记录的办法

5 天前
 mdb
近两年 AI 和大模型很火热,我对此则完全属于门外汉,只是用过一些 openAI 的镜像站还有一些国内的大模型,今天用钉钉的时候试着用自带的 AI 让它帮我写下周报,发现效果还行,感觉它是把我自己在钉钉写的文档和表格一类的做了些总结,然后输出,惊叹之余不免又有点心惊的感觉,毕竟数据全在它的后台上,它根据你输出的内容做了训练之类的,然后才能总结果出来,也就是说你产生的内容对它是全透明的;

后来又听说了一些本地大模型的东西,它运行在本地,从安全性来说不会往别的地方传输你的数据,这就让人比较放心了,当然本地的性能肯定是没法和服务器相比,所以跑一些小模型应该没问题,由此正好又有了一个想法,就是能不能把多年来的聊天记录灌输到大模型里然后让它做一个总结,我想应该是可行的

首先聊天记录属于隐私数据,在本地跑比较合适,可能别的 AI 它也能帮你总结,但是你得把数据给别人
然后聊天记录基本都是文本数据,总量来说并不大,本地机器性能应该足够

根据上面这两点判断让我感觉应该可以实现我的想法,初期要求能通过大模型输入我的聊天记录后,它进行处理,最后我可以问它问题,比如帮我总结下我和谁谁谁的聊天记录,然后它进行输出;如果有这个功能就非常好了,有些人可能很久没联系,忘了以前聊过些什么,不用回去翻聊天记录,总的聊天记录有十年多了,包含个人和群聊的,QQ 和微信的,之前用过词云进行分析,但结果不佳

有了想法后,现在的问题就是怎么实现,应该用什么大模型合适,我对此完全不懂,希望对此有了解的大佬能指条路或者步骤,尽量可以简单实现,我也可以学习一些相关的资料,当然不要直接说先从微积分和线性回归之类的学起,我只是想实现功能然后使用,不是深入研究和开发 AI
1149 次点击
所在节点    奇思妙想
10 条回复
clino
5 天前
你这个需求是不是就是知识库聊天机器人的需求,就是 RAG 方式的就能满足
用 QAnything FastGPT 之类的可以试试
但是问题是你如果不想要调云上的 api ,那就要本地有显卡才能跑大模型,你有能跑大模型的显卡吗?
meeop
5 天前
没那么复杂:
1 导出聊天记录(纯文本)
2 随便找一个大模型,claude 上下文 200k ,国内好像有上下文 1m 的
3 把聊天记录塞给大模型,然后问他
请帮我总结我和 xx 的聊天记录,要求如下。。。

就完事了

现在 ai 模型上下文很长,你日常聊天记录很可能都没有 200k
如果超过了,可以适当清洗数据,比如让 ai 帮你写一个清洗数据的脚本“请帮我写一个脚本,将聊天记录拆分成每个人的对话一个文件,示例数据如下。。。”
然后转换问题为大模型上下文能容纳的量级
meeop
5 天前
另外还有很多解析 doc 文档的服务,就是让你上传 doc ,然后基于 doc 对话,应该直接满足你的需求
只不过都有点隐私问题
mdb
5 天前
@clino 本地有一台笔记本,GTX4060 的显卡,不知道能不能满足需求
mdb
5 天前
@meeop 线上的 AI 能实现,但是就是为了安全不想把数据提交上去
mdb
5 天前
@clino 不知道属不属于知识库,就是想让它总结我给的内容,然后问它相关的问题,它可以根据我提供的内容进行总结回答,比如我问有谁向我借过钱,它可以列出在以前聊天的时候谁谁谁提到过借钱的事,QAnything 刚了解了下确实问答相关的,还有一个通义千问的模型不知道合不合适
clino
4 天前
如果是 RAG ,那么相关性的检索是由 embedding 和向量数据库来完成的,然后 LLM 的功能是对搜索到的功能进行总结回答,这里效果好不好要看 embedding 那部分好不好,而主要不是由 LLM 来决定的,当然现在 RAG 经过很多迭代发展出来很多做法比如向量检索和全文检索相结合之类的
如果不用 RAG ,那就要用上面说的超长上下文的做法,这种成本可能也不低,而且一般也不是本地开源 LLM 能搞定的,需要比较强的硬件
xiaokangz
4 天前
最近刚好有研究过一点点,对于这类全局性问题,一般的 RAG 基本没法满足需要,可以尝试下 LightRAG 或 GraphRAG 。使用时需要先借住 LLM 建 Graph ,建完之后就可以回来诸如“比如帮我总结下我和谁谁谁的聊天记录”的问题。当时我用 GPT-4o mini 建的 Graph ,效果还可以的。
mdb
3 天前
@xiaokangz 好的,感觉你说的这个比较符合我的理解,就是聊天内容属于 AI 基础知识的一部份,另外就是 GPT-4o mini 对本地配置要求是什么样的,不知道我的笔记本能不能跑得动
xiaokangz
2 天前
@mdb GPT-4o mini 是 OpenAI 的一个模型,不是本地的,你要在本地跑的话考虑用 Ollama ,建议上 GitHub 拉下 LightRAG 的源代码,本地体验下

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1091635

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX