发布了好几天 V2 上竟然没有讨论贴,来发一把,这是个好模型。
重点:
除了 236B 的完全体还有一个 Lite 版,16B 参数,大约激活 2B ,支持代码补全等,挺适合个人电脑跑: https://huggingface.co/deepseek-ai/DeepSeek-Coder-V2-Lite-Instruct
1
yinmin 2024-06-22 00:24:40 +08:00 via iPhone
deepseek coder v2 在计算机领域的确很强,和 gpt4 有一拼,而且 api 价格超级便宜
|
![]() |
2
nomagick 2024-06-22 00:33:54 +08:00
80G*8 required....
|
3
cJ8SxGOWRH0LSelC 2024-06-22 00:39:36 +08:00
确实不错, 问了几个 quarkus native 编译的问题, 都回答正确了。
|
![]() |
4
Tink PRO 用的逆向的,确实牛逼
|
5
crackidz 2024-06-22 08:57:14 +08:00
当然是在偷偷的用啊...DeepSeek Coder 刚出来的时候就挺惊艳的
|
![]() |
6
hljhbing 2024-06-22 09:22:10 +08:00
我是怎么把 Deepseek-Coder-V2 看成 Docker-Compose-V2 的😰
|
![]() |
7
Vitta 2024-06-22 10:58:39 +08:00
Here, we provide some examples of how to use DeepSeek-Coder-V2-Lite model. If you want to utilize DeepSeek-Coder-V2 in BF16 format for inference, 80GB*8 GPUs are required.
|
8
XMV2e4PmK5F85h17 2024-06-22 11:19:31 +08:00 via iPhone
为啥不用免费的 4O
|
![]() |
9
viWww0vvxmolvY5p 2024-06-22 13:24:27 +08:00
API 还没有开放。
|
![]() |
10
viWww0vvxmolvY5p 2024-06-22 13:25:42 +08:00
@mway deepseek-chat 和 deepseek-coder 后端模型已更新为 DeepSeek-V2 和 DeepSeek-Coder-V2 ,无需修改模型名称即可访问。
原来是这样 |
![]() |
11
adrianzhang 2024-06-22 15:33:03 +08:00
我用 AnythingLLM ,使用其他模型都可以,就是这两个报错,报 llama 内核崩溃。
你知道该怎么用吗? Ollama 装在一个台式机上,配 3060 12G 显卡,128GB 内存。 |
![]() |
12
tycholiu 213 天前
国内提供 API 的这家不错 https://ppinfra.com ,性价比也高。点我的链接 https://ppinfra.com/user/register?invited_by=P0KD6O 注册 ,我们双方都能拿到赠送的 5000 万 Token 使用量。
|