装了 Windows 的主机,要用 Linux 跑大模型,推荐 wsl 还是 Ubuntu 双系统来跑呢?

161 天前
 meattball
主要考虑 wsl 这种方式会不会有什么性能损失呢?
3437 次点击
所在节点    Linux
22 条回复
ferock
161 天前
实际上,没有…但是,很多硬件不一定能调用,比如 wsl 不能调用声卡…
xmumiffy
161 天前
跑大模型 wsl 没啥问题
Oct31Dec25
161 天前
跑大模型用 WSL ,自带显卡驱动,没感觉到性能损耗。
tap91624
161 天前
wsl 多卡有坑,其他还好
lianyanjiajia
160 天前
wsl 有很多坑...
jackmod
160 天前

个人用户直接走 docker desktop 就能用。
商业用户……每月 5 刀的专业版好像就合法。
jackmod
160 天前
直接上 wsl 是官方支持的 https://learn.microsoft.com/en-us/windows/ai/directml/gpu-cuda-in-wsl
不过用纯 linux 版的 docker 好像连不上显卡,之前试过一次失败了,/dev 里也没找到像那么回事的玩意,大概是我的知识盲区。wsl 里 nvidia-smi 是一定能用的,有机会 strace 一下,希望能够发现些什么。
huluhulu
160 天前
windows+wsl 很舒服,和 windows 共用显卡,windows 玩游戏的同时后面跑模型,互不耽误。
需要新环境的时候直接复制一个配置好的 wsl 镜像,很方便,每个环境真正做到互不影响。
meattball
160 天前
@tap91624 多卡有坑啊,能具体说说吗。我正好是两张 4080 。。。nvidia-smi 也能看见两张 4080 。
meattball
160 天前
主要是帮同学配的环境,还是希望能好用点
meattball
160 天前
@tap91624 @lianyanjiajia 刚刚查看了 nvidia 文档,说 Concurrent CPU/GPU access is not supported.,就是说不支持用多卡一起跑算力是吗
hez2010
160 天前
用 WSL 没啥问题,我上个月刚刚用 wsl finetune 了 llama ,全程丝滑。
among
160 天前
wsl 的 nvidia-smi 可以看到。但是 docker 中使用的时候,发现无法占用显存。
最后还是放弃了。
beginor
160 天前
测试/开发用 wsl 应该没什么问题,生产环境建议直接上 Linux 。
qping
160 天前
纯 windows 就不能跑大模型吗,没折腾过,想了解下
Nosub
160 天前
@qping 可以试试虚拟机,跑一个玩玩,几乎没有任何硬件要求,当然速度慢;

使用 Ollama 和 AnythingLLM 搭建本地 LLM 和知识库
https://nosub.net/posts/p/219
qping
160 天前
@Nosub AnythingLLM 训练模式 属于 fine tuning 吗
fox0001
160 天前
如果内存或硬盘占用比较大,建议用实体机装 Linux 来跑。试过 WSL 跑模型,超出 WSL 的硬盘容量限制,导致 WSL 里的系统崩了,只能重装。还好有备份……
tubowen
160 天前
wsl 不好用,之前想在 wsl 上面用 docker 呢,还不如 VMware 虚拟机里面跑 docker ,坑很多
ysc3839
160 天前
我选择再装个 Arch Linux 。个人不太接受 WSL2 ,因为 Hyper-V 虚拟化感觉上会影响主系统性能。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1076410

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX