使用自己的数据训练 ChatGPT

2023-12-14 08:18:23 +08:00
 cat9life

其实 ChatGPT 刚出来的时候就有这个想法,想做一个自己的“分身”,主要是说话方式要模仿到位。 全网搜了一下就两个办法: fine-tuning 还有现在的 GPTs ?巨佬们请给点建议。

2950 次点击
所在节点    OpenAI
15 条回复
polyanthusun
2023-12-14 08:43:56 +08:00
等大佬们回答,这个方面我最近也在研究
shenyiyouge
2023-12-14 08:46:21 +08:00
有解请踢我一下
cat9life
2023-12-14 08:53:46 +08:00
@polyanthusun #1 试了下 GPTs ,效果并不好
woaigeny
2023-12-14 09:34:40 +08:00
关于“分身”(克隆),可以了解一下 x eva
notproblem
2023-12-14 09:54:49 +08:00
之前看到过,用的 chat glm 貌似可以
avalon8
2023-12-14 09:55:15 +08:00
我用的阿里的百炼大模型训练平台还行吧
siriussilen
2023-12-14 09:58:45 +08:00
说话方式模仿到位的话,fine-tune 可以实现,sft 有两个部分,一个是 input ,一个是 target ,对于语气 sft ,可以 input 为空
,target 只有内容,这个你可以参考一下微软的资料。另外小心实验参数设置,epoch 多的话,模型很容易变傻
siriussilen
2023-12-14 10:01:28 +08:00
或者你也可以尝试一下 icl ,给几个 few-shot ,如果使用 gpt4 模型很容易学到这一类的信息
siriussilen
2023-12-14 10:01:45 +08:00
其他开源的模型 qwen 等不保证,差距还是比较明显
cat9life
2023-12-14 10:22:19 +08:00
@siriussilen #7 大佬可以展开说一下,或者由参考资料吗。谢谢
cat9life
2023-12-14 10:32:53 +08:00


我应该实际试一下,这是官方的说法。模仿语气正是他的特长。就是不知道需要多少训练数据才行?
siriussilen
2023-12-14 11:39:00 +08:00
@cat9life
1. 如果使用 open platform 的 sft 平台的话,先看一下 open ai 的官方指南,上面明确说了应该用多少数据来做 sft 比较好 https://platform.openai.com/docs/guides/fine-tuning/fine-tuning
如果效果不佳,或者效果不错应该如何处理
2. 语气的安利 sft 在微软的 azure sft 教程里面有提到,https://learn.microsoft.com/zh-cn/azure/ai-services/openai/tutorials/fine-tune?tabs=python%2Ccommand-line (刚刚看好像更新没有了,可能还得翻翻) 当时的结论就是说不需要 input ,只需要在 target 侧准备你的语气相关语料即可,可以先用小部分数据试试
3. 在 sft 之前,先写好 prompt ,看看用 prompt 或者几个 few-shot 例子看能能否搞定这个问题
otakustay
2023-12-14 17:43:57 +08:00
只做分身聊聊天的话 rag + gpts 就够了吧,sft 还是用在比较专业点的地方好,毕竟贵……自己显卡能跑的小模型另说
nezuko
2023-12-14 19:10:17 +08:00
b 站林亦有个视频介绍的这个, [聊天就能编程!我用 GPTs 做了个自己的数字化身] https://www.bilibili.com/video/BV1ug4y1X7MJ
cat9life
2023-12-15 19:13:24 +08:00

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1000209

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX