使用 GPT 合作编程时一个强烈的需求

20 天前
 izzy27

我希望有一个面板,能够让我上传当前项目的文件,也不是很多,可能就十来个代码文件

然后所有的对话都基于面板里面的文件进行

这样做的好处:

  1. 消除 LLM 的幻觉,避免产生乱七八糟的代码
  2. 基于最新的代码进行讨论,更有效率
  3. 不用重复的输入某些前提或者背景

大家有类似的需求吗? 或者市面上有任何类似的应用吗?

2049 次点击
所在节点    奇思妙想
20 条回复
DataPipe
20 天前
github copilot/codeium 不都是这样的吗,可以自动关联相关的代码。
izzy27
20 天前
最好是网页版,兼容性更强,比如说 xcode 就不支持 copilot
而且 copilot 只能根据当前打开的代码文件进行对话,没办法关联多个代码文件

@DataPipe
zhw2590582
20 天前
github copilot workspace 吧?不过还没公测
echoless
20 天前
做 rag 的应该都可以实现.

之前一个小伙伴尝试实现 https://github.com/swuecho/chat/issues/385 文档都写了一部分, 但是因为有事中断就搁置了.
lithiumii
20 天前
试试这个?虽然主要是写文章用,但也有读代码的功能
https://github.com/binary-husky/gpt_academic
oiken
19 天前
@izzy27 试试 https://cursor.sh/ ,号称 The AI Code Editor ,基于 VS Code 开发的,我用了,不完全准确,但比自己在网页对话框里写半天,还是要方便快捷很多
metalvest
19 天前
试试 https://khoj.dev/ ,提供了同步本地文件夹到知识库的功能
wweerrgtc
19 天前
只要你的所有代码都是 gpt 生成的, gpt 就能知道你的其他文件中代码是什么样🐶
tjmljw
19 天前
poe.com , 支持创建机器人并上传 pdf 和 word 格式的知识库
ZzzzRyan
19 天前
@izzy27 #2 多文件关联目前是可以的,你可以基于 @workspace 向 copilot 提问。
支持 rag 的应该都可以实现你的需求,例如之前看到的一款 [AnythingLLM]( https://github.com/Mintplex-Labs/anything-llm) ,个人还没测试过,可以参考。
izzy27
18 天前
感谢各位回复,我找时间体验一下 : )
coolfan
18 天前
jb 系列的 copilot chat 插件就可以读到所有当前打开的文件,但是 vscode 的 chat 插件不行……
echoless
18 天前
@echoless #4

感觉这个功能我也需要, 就实现了一下. 不用 RAG 就是废 token.
izzy27
18 天前
@echoless 是直接把代码内容放在 prompt 里面吗?
echoless
18 天前
@izzy27 #14 哈哈, 是的 filename: xxx <<< content >>>

用 context length 比较大的模型 没问题, 比如 google gemini, gpt4o 效果比 RAG 应该好. google gemini 有免费额度, 足够用了.
izzy27
18 天前
@echoless 我也想过这个方法。用 RAG 肯定可以,但是太重了,而且每次都要重新构建向量,挺麻烦的。

就是 LLM 有时候不听话 哈哈
LevineChen
18 天前
https://prompt.16x.engineer/
好像也是坛友做的吧, 基本上就是你说的场景
izzy27
17 天前
@LevineChen 看起来完美符合需求,感谢
byronma
17 天前
https://prompt.16x.engineer/ 我发现使用的 gpt4.0 key 魔法了,也绕不开,被网络限了,大佬怎么处理呢
zjh7890
8 天前
搞个 idea 插件,维护一个文件列表,然后一键拷到 chatGPT 就可以了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1047501

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX