装了 Windows 的主机,要用 Linux 跑大模型,推荐 wsl 还是 Ubuntu 双系统来跑呢?

22 小时 25 分钟前
 meattball
主要考虑 wsl 这种方式会不会有什么性能损失呢?
1316 次点击
所在节点    Linux
20 条回复
ferock
22 小时 17 分钟前
实际上,没有…但是,很多硬件不一定能调用,比如 wsl 不能调用声卡…
xmumiffy
22 小时 16 分钟前
跑大模型 wsl 没啥问题
Oct31Dec25
22 小时 14 分钟前
跑大模型用 WSL ,自带显卡驱动,没感觉到性能损耗。
tap91624
21 小时 45 分钟前
wsl 多卡有坑,其他还好
lianyanjiajia
19 小时 20 分钟前
wsl 有很多坑...
jackmod
19 小时 17 分钟前

个人用户直接走 docker desktop 就能用。
商业用户……每月 5 刀的专业版好像就合法。
jackmod
19 小时 9 分钟前
直接上 wsl 是官方支持的 https://learn.microsoft.com/en-us/windows/ai/directml/gpu-cuda-in-wsl
不过用纯 linux 版的 docker 好像连不上显卡,之前试过一次失败了,/dev 里也没找到像那么回事的玩意,大概是我的知识盲区。wsl 里 nvidia-smi 是一定能用的,有机会 strace 一下,希望能够发现些什么。
huluhulu
18 小时 14 分钟前
windows+wsl 很舒服,和 windows 共用显卡,windows 玩游戏的同时后面跑模型,互不耽误。
需要新环境的时候直接复制一个配置好的 wsl 镜像,很方便,每个环境真正做到互不影响。
meattball
18 小时 0 分钟前
@tap91624 多卡有坑啊,能具体说说吗。我正好是两张 4080 。。。nvidia-smi 也能看见两张 4080 。
meattball
18 小时 0 分钟前
主要是帮同学配的环境,还是希望能好用点
meattball
17 小时 46 分钟前
@tap91624 @lianyanjiajia 刚刚查看了 nvidia 文档,说 Concurrent CPU/GPU access is not supported.,就是说不支持用多卡一起跑算力是吗
hez2010
11 小时 15 分钟前
用 WSL 没啥问题,我上个月刚刚用 wsl finetune 了 llama ,全程丝滑。
among
8 小时 0 分钟前
wsl 的 nvidia-smi 可以看到。但是 docker 中使用的时候,发现无法占用显存。
最后还是放弃了。
beginor
6 小时 28 分钟前
测试/开发用 wsl 应该没什么问题,生产环境建议直接上 Linux 。
qping
6 小时 3 分钟前
纯 windows 就不能跑大模型吗,没折腾过,想了解下
Nosub
4 小时 46 分钟前
@qping 可以试试虚拟机,跑一个玩玩,几乎没有任何硬件要求,当然速度慢;

使用 Ollama 和 AnythingLLM 搭建本地 LLM 和知识库
https://nosub.net/posts/p/219
qping
3 小时 46 分钟前
@Nosub AnythingLLM 训练模式 属于 fine tuning 吗
fox0001
3 小时 41 分钟前
如果内存或硬盘占用比较大,建议用实体机装 Linux 来跑。试过 WSL 跑模型,超出 WSL 的硬盘容量限制,导致 WSL 里的系统崩了,只能重装。还好有备份……
tubowen
1 小时 55 分钟前
wsl 不好用,之前想在 wsl 上面用 docker 呢,还不如 VMware 虚拟机里面跑 docker ,坑很多
ysc3839
1 小时 14 分钟前
我选择再装个 Arch Linux 。个人不太接受 WSL2 ,因为 Hyper-V 虚拟化感觉上会影响主系统性能。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1076410

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX