现在 8GB 显存 4070 笔记本能训练 AI 画图 LoRA 模型吗?效果怎么样,有没人了解的?我看有的模型说 6GB 显存就能玩

9 小时 59 分钟前
 drymonfidelia
1080 次点击
所在节点    程序员
13 条回复
drymonfidelia
9 小时 47 分钟前
另外还想问下爆显存是会对生成图片质量造成影响还是会直接出不了图?
LanhuaMa
9 小时 40 分钟前
8GB 训练怎么样我不知道,但是跑图基本是不够的,分辨率基本不可能超过 720p 而且插件一多就容易爆。6GB 能玩是扯蛋,除非你喜欢 pixel art 。爆显存会直接报错不出图
winson030
9 小时 36 分钟前
不建议笔记本干这活,同样价格要么主机要么租 GPU 。
Chris008
6 小时 5 分钟前
现在 1024 分辨率以上的训练没有 24GB 显存是根本折腾不起来的。512 分辨率早就淘汰也没有花时间训练的必要。
Chris008
6 小时 4 分钟前
出图看 UI 优化的不同,6-8G 都是可以出图的,就是慢点。实测 8GB 在 ComfyUI 可以跑。
disorientatefree
5 小时 29 分钟前
训练不要想,出图是够玩玩的,但是笔记本这配置批量做起来也不现实

---

除非你玩像素图当我没说
hafuhafu
3 小时 17 分钟前
8G 训练 LoRa 够了。我之前就用 3070Ti Laptop 8G 弄了几个自己的 LoRa 玩,更低都行。
出图的话,小显存也能玩,但是效果要好点倒是对显存要求比较高,不然加上插件什么的,只能出小分辨率的图。
HeyWeGo
3 小时 6 分钟前
如果想出 1920x1080 的图,推荐多少显存的卡呢? 4090 ok 吗?
chesha1
2 小时 38 分钟前
@HeyWeGo #8 你要是用 web ui 那种整合包,会包括很多节约显存的工具,4090 24G 应该够了,如果用裸 diffusers ,才会不够
tikebosi6787782
2 小时 35 分钟前
还是需要 12
emberzhang
1 小时 25 分钟前
用 comfyui + flux.1 ,16G 跑 fp16 肯定是爆,但也没有感觉特别慢,会再把内存吃掉 25G 的样子,4070tis 大概 40 秒一张 1024x1024 。我还是垃圾 3200Mhz ddr4 内存
mscsky
26 分钟前
模型转精度,没什么不能跑的
sampeng
17 分钟前
也就能玩了。。。但没生产力。。除非你电脑啥都不干

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1087265

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX