Deepseek-Coder-V2 —— 与 GPT 4o 同级别的开源编程大模型

9 天前
 neteroster

发布了好几天 V2 上竟然没有讨论贴,来发一把,这是个好模型。

重点:

  1. 236B MoE ,激活参数约 33B 。
  2. 在各编码基准测试中与 GPT 4o 水平相当或更高(包括非常新的、难以污染的基准测试)。
  3. 官网 API 价格:1 元 / 百万输入 Tokens ; 2 元 / 百万输出 Tokens ,非常廉价。
  4. 除了编码,其他逻辑能力也很强。
  5. 开放权重,允许商业用途

除了 236B 的完全体还有一个 Lite 版,16B 参数,大约激活 2B ,支持代码补全等,挺适合个人电脑跑: https://huggingface.co/deepseek-ai/DeepSeek-Coder-V2-Lite-Instruct

1307 次点击
所在节点    OpenAI
11 条回复
yinmin
9 天前
deepseek coder v2 在计算机领域的确很强,和 gpt4 有一拼,而且 api 价格超级便宜
nomagick
9 天前
80G*8 required....
StinkyTofus
9 天前
确实不错, 问了几个 quarkus native 编译的问题, 都回答正确了。
Tink
8 天前
用的逆向的,确实牛逼
crackidz
8 天前
当然是在偷偷的用啊...DeepSeek Coder 刚出来的时候就挺惊艳的
hljhbing
8 天前
我是怎么把 Deepseek-Coder-V2 看成 Docker-Compose-V2 的😰
Vitta
8 天前
Here, we provide some examples of how to use DeepSeek-Coder-V2-Lite model. If you want to utilize DeepSeek-Coder-V2 in BF16 format for inference, 80GB*8 GPUs are required.
Sniper000
8 天前
为啥不用免费的 4O
mway
8 天前
API 还没有开放。
mway
8 天前
@mway deepseek-chat 和 deepseek-coder 后端模型已更新为 DeepSeek-V2 和 DeepSeek-Coder-V2 ,无需修改模型名称即可访问。
原来是这样
adrianzhang
8 天前
我用 AnythingLLM ,使用其他模型都可以,就是这两个报错,报 llama 内核崩溃。
你知道该怎么用吗? Ollama 装在一个台式机上,配 3060 12G 显卡,128GB 内存。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1051625

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX