ollama 是个可以跑多种大模型的平台,可以跑 llama2, mistral 等。我机器比较老,windows 10 ,32G 内存,只有 2G 显存。但看起来速度还可以接受( mistral ),下载模型也只需要几分钟。安装完用的 mistral ,即后面这个命令ollama run mistral。当作本地的 code 助手应该比较方便。
ollama 是个可以跑多种大模型的平台,可以跑 llama2, mistral 等。我机器比较老,windows 10 ,32G 内存,只有 2G 显存。但看起来速度还可以接受( mistral ),下载模型也只需要几分钟。安装完用的 mistral ,即后面这个命令ollama run mistral。当作本地的 code 助手应该比较方便。
1
imzcg2 Feb 16, 2024
|
2
reeco Feb 16, 2024 自己编译一下 llama.cpp ,一样的效果
|
4
mumbler Feb 16, 2024
太慢了,没用上 avx2 指令集,我自己编译的比官方快得多
|
5
cwyalpha Feb 16, 2024 via iPhone
楼主跑的时候应该是用的内存不是显存?
|