现在 8GB 显存 4070 笔记本能训练 AI 画图 LoRA 模型吗?效果怎么样,有没人了解的?我看有的模型说 6GB 显存就能玩

14 天前
 drymonfidelia
2054 次点击
所在节点    程序员
16 条回复
drymonfidelia
14 天前
另外还想问下爆显存是会对生成图片质量造成影响还是会直接出不了图?
LanhuaMa
14 天前
8GB 训练怎么样我不知道,但是跑图基本是不够的,分辨率基本不可能超过 720p 而且插件一多就容易爆。6GB 能玩是扯蛋,除非你喜欢 pixel art 。爆显存会直接报错不出图
winson030
14 天前
不建议笔记本干这活,同样价格要么主机要么租 GPU 。
Chris008
14 天前
现在 1024 分辨率以上的训练没有 24GB 显存是根本折腾不起来的。512 分辨率早就淘汰也没有花时间训练的必要。
Chris008
14 天前
出图看 UI 优化的不同,6-8G 都是可以出图的,就是慢点。实测 8GB 在 ComfyUI 可以跑。
disorientatefree
14 天前
训练不要想,出图是够玩玩的,但是笔记本这配置批量做起来也不现实

---

除非你玩像素图当我没说
hafuhafu
14 天前
8G 训练 LoRa 够了。我之前就用 3070Ti Laptop 8G 弄了几个自己的 LoRa 玩,更低都行。
出图的话,小显存也能玩,但是效果要好点倒是对显存要求比较高,不然加上插件什么的,只能出小分辨率的图。
HeyWeGo
14 天前
如果想出 1920x1080 的图,推荐多少显存的卡呢? 4090 ok 吗?
chesha1
14 天前
@HeyWeGo #8 你要是用 web ui 那种整合包,会包括很多节约显存的工具,4090 24G 应该够了,如果用裸 diffusers ,才会不够
tikebosi6787782
14 天前
还是需要 12
emberzhang
14 天前
用 comfyui + flux.1 ,16G 跑 fp16 肯定是爆,但也没有感觉特别慢,会再把内存吃掉 25G 的样子,4070tis 大概 40 秒一张 1024x1024 。我还是垃圾 3200Mhz ddr4 内存
mscsky
14 天前
模型转精度,没什么不能跑的
sampeng
14 天前
也就能玩了。。。但没生产力。。除非你电脑啥都不干
rm0gang0rf
14 天前
1050 4g 也能跑, 你跑 20 秒, 我跑半小时
zzNucker
14 天前
sd webui 跑跑图肯定是没问题的,训练就算了
NoOneNoBody
14 天前
所谓能,起点其实很低的,算力越低耗时越长
以前的机器很弱,还有人花一周不断电来训练出一个模型呢,而且还是只做训练这一件事,这耐心我是比不了

别听别人画饼,人家的情况,包括情操,不是你能照搬的

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1087265

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX