Mac 上 VS Code 使用什么插件可以使用 Ollama 本地模型?

194 天前
 adrianzhang
各位都用什么插件?
试用了一下 CodeGPT ,需要安装 node.js ,装完了也不能用,直接一个空界面。
装了 Continue ,但是不像 Codeium 好用。
你们都在用啥?
1045 次点击
所在节点    Local LLM
7 条回复
idblife
23 天前
Continue 和 Codeium 比差在哪里?
HankYao
22 天前
直接一站到位——用 cursor 吧,提效真的不是一星半点。
adrianzhang
22 天前
@idblife 不支持远程 Ollama
adrianzhang
22 天前
@HankYao 我这不是穷么
idblife
21 天前
@adrianzhang
Continue 支持远程 ollama 啊,不过为啥不用 vllm 呢?
adrianzhang
21 天前
@idblife 我提问的时候,官方文档都说了只支持本地,而且当时没找到 vllm 。所以才来问。
adrianzhang
21 天前
@idblife 哎呀我搞错了,不是 continue 不支持,而是 codeGPT 。回到你的问题,continue 和 codeium 比的话,后者在这代码的时候更智能一些,使用体验比较好。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1051676

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX