一个本地运行的 DeepSeek 加上 Cursor,是不是目前一个程序员的终极解决方案?

22 天前
windyboy  windyboy

通过自己筛选过的文档强化一下本地模型,加上 Cursor 是不是就是目前最好的 AI 辅助方式?

6609 次点击
所在节点   程序员  程序员
41 条回复
Chism
Chism
22 天前
多大的模型?什么配置的电脑可以跑?
windyboy
windyboy
21 天前
@Chism 32b 的模型只要显存大于 20GB 就可以跑
Chism
Chism
21 天前
@windyboy #20
这个水平也一般吧,跑本地有什么意义?
bybyte
bybyte
21 天前
官网 api 也是白菜价
roygong
roygong
21 天前
现在 DeepSeek API 在 cursor 部署的话好像没法解锁所有功能,还得开 cursor 的会员
SenLief
SenLief
21 天前
直接跑 api ,都已经用 deepseek 就没必要用 cursor ,直接 vs 插件或者 copilot
hongjic93
hongjic93
21 天前
你这本地能跑的都是拿 r1 蒸馏的 qwen 之类的小模型吧,本地怎么可能能跑 v3 和 r1 。
duzhuo
duzhuo
21 天前
@bybyte 是的 白菜价
asuraa
asuraa
21 天前
这么便宜的 api ,用不着自己跑吧,我这 10 块钱用了一个礼拜了,直接就 Roo Cline 插件就完事,
esee
esee
21 天前
本地跑的电费估计都比 api 贵了
saobilin
saobilin
21 天前
7900xtx 带 32b 轻松 带不动 70b 本地运行的成本其实还是有点高的
amlee
amlee
21 天前
api 白菜价了呀,本地跑不满血的 r1 ,图啥呢,隐私要求那么高?
iorilu
iorilu
21 天前
都白菜价了, 直接 api 得了, 除非企业内部, 可能有自己部署的需求
GeekGao
GeekGao
20 天前
32b 的模型依然渣渣 ,建议不要问,亲自租一台 GPU server 部署试一试。
ShadowPower
ShadowPower
20 天前
我试了 R1 蒸馏出来的 Qwen 32B 模型,看 benchmark 感觉不错,然而实际用起来和原版 R1 差很多
windyboy
windyboy
20 天前
deepseek 的意义实际上就是可以摆脱云端的服务,本地运行一个能力不错的模型,并且保有私有的数据
javaluo
javaluo
20 天前
@asura 话说 cline 支持 r1 模型吗?
ypliang9
ypliang9
19 天前
q4 量化且是蒸馏 r1 知识微调的 qwen 才是你手上用的模型。这和本体效果差忒多了。
jiangbingo
jiangbingo
19 天前
cline+deepseek v3 用了一个月,没有人提到在编程方面,大概十次基于文件夹方面的问答就会卡顿吗?
RoccoShi
RoccoShi
19 天前
本地的模型都是💩

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1108172

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX