代码助手用 cursor pro 划算还是 cursor+ollama 本地部署划算?

43 天前
 raw0xff

不知道 ollama 支持的并能跑在 mac mini 16g 上的模型不知道与充值的 gpt claude API 有没有可比性?试过的来说说

3639 次点击
所在节点    Local LLM
28 条回复
taotaodaddy
42 天前
别说你自己的本地,就是谷歌+meta 官方本地,它写代码也比不上 claude3.5 啊
kaichen
42 天前
#19 @shuimugan

gpt4 代码写很烂,只有 claude-3.5 才能写出大概正确的代码片段

我的观点是,现在民用本地设备,跑模型写代码这个事情非常不实惠,买个 cursor 20 刀一个月,是本地跑的 100x 效果
Orenoid
42 天前
对于大部分消费级显卡,本地部署模型除了数据安全几乎没有任何性价比,又慢效果又一般
crackidz
42 天前
其实考虑一下 Github Copilot 是个不错的选择,每月 10 刀,一年 100 刀,比 Cursor 便宜一半。同样可以使用 Claude ,功能虽然比 Cursor 目前还差一点,但是其实也差距不大了。相信 Github 还是可以把这些差距补上的。

如果习惯 Cursor ,那么使用 DeepSeek 的 API 应该会是更好的选择,价格不高,速度和效果也会比本地运行的量化模型更好,如果硬件本身一般,那么这个会是更好选择。

至于本地模型,应该算是最后的不想花钱选择。
raw0xff
42 天前
@crackidz copilot 是不是只有代码补全,没有创建文件和理解多个文件的功能吧?还是我不会用。cursor 的 cmd+i cmd+l 用起来真舒服。
webcape233
42 天前
@raw0xff 新版看看 似乎有了部分能力了 估计慢慢会都加上
laikick
41 天前
@raw0xff 新版有, 但是差距还是很大的, copilot 几乎很少主动提示. 而 cursor 会主动提示. 不需要注释提示
poorcai
41 天前
@TomXx #16 是的,两个星期,貌似不能调试 .net core

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1087911

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX