赐教: 可否通过本地 PC 替代云端实现 Stable Diffusion 生图,降低本?

3 天前
 tsja

公司计划使用 Stable Diffusion 实现 AI 生图功能,但发现云服务器的成本较高,一年下来至少一万。相比之下,个人 PC 的配置似乎更划算。

我的设想是:当服务器需要处理 AI 生成图片时,可以将计算任务转交给本地 PC ,生成完成后再将结果上传至服务器。想请教大家,这种方案是否可行

另外,如果使用 32G/64G 内存的 Mac 来处理 Stable Diffusion 生成任务,在生图性能上相比 PC 有优势吗?

感谢各位大佬的建议和指导!

1359 次点击
所在节点    程序员
20 条回复
xtreme1
3 天前
m 系列跑 sd 比较慢, 这玩意是计算密集不是 io 密集
flmn
3 天前
这种方案当然可行。用户提请求,云端将请求入库待处理; PC 连到云端,取出任务处理再回传。
huage
3 天前
考虑成本就自己建,买一台二手 GPU 服务器或者自己装一台都行,初始投入比较高
iyiluo
3 天前
还不如自建服务器
tsja
3 天前
@xtreme1 我是看到 M2 Max 的 Mac Studio 32G 内存 1.3w, 64G 的 2w, 同样价格 PC 显存也就 24G, 会不会因为 Mac 统一内存更大换来的出图效率高一些?
13240284671
3 天前
通过 frp 代理,可以实现
1.需要买一台中转服务器(10M 带宽的就行)
2.window 跑的话,需要几天重启一次
3.电费一天也要几块钱吧
最好是买一台服务器,找有公网 ip 的托管
tsja
3 天前
@flmn 好的, 谢谢! 请问这种方式, 有没有可以参考的开源项目或者最佳实践呢?
xtreme1
3 天前
@tsja 5#
有个玩意叫 2080Ti 魔改 22g....
tsja
3 天前
@13240284671 谢谢!
SamLacey
3 天前
@tsja #5 64g 出大图有优势,n 卡有 cuda 加速,出图速度会快很多,还能炼丹
tsja
3 天前
@SamLacey 谢谢, 我的需求还是速度 > 质量, 那我还是考虑 N 卡吧
sunny352787
3 天前
不要用 mac 跑,仅仅是显存大没啥用,还是得 N 卡,搞个 4070 、4080 的机器,虽然显存看着不大,但出图速度很快,而且 cuda 跑 SD 资料很多,mac 碰到问题都不好查
tool2dx
3 天前
https://vladmandic.github.io/sd-extension-system-info/pages/benchmark.html

可以看一下这个,来选择最合适的硬件
devilweime
3 天前
已经在本地畅玩了,重点是显卡,看公司舍不舍花钱了
codersun123
3 天前
4090 的服务器才 2 块钱 1 个小时,你按需使用,需要的时候把服务器开机,不需要的时候关机。自己写点脚本连入系统就好了
superkkk
3 天前
gpu.pro 这上面有 5 毛一小时的 3080 20g 显卡,但是我用起来感觉网速挺垃圾的。op 可以尝试新注册不同的平台薅羊毛,现在好多出租显卡的平台,薅羊毛能优惠不少钱
L13
3 天前
一年才一万,什么 GPU 云服务器能这么便宜
lessurliu
3 天前
之前自己实现过,我的方案是云端任务存到 redis 队列,本地监听队列然后执行生图任务。也可以搞消息队列,但国内云厂商 redis 很便宜,一个月只要几块钱,这样搞也不用代理啥的,比较稳定
flmn
2 天前
@tsja 不需要什么框架。最简单的,相信数据库你已经在用了吧,就定时扫表呗。复杂点的,弄个 redis/消息队列/websocket 啥的及时通知。如果是我,第一版肯定是先用数据库,不够用了再改更复杂的方式。
tsja
1 天前
@lessurliu @flmn 感谢大佬

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1075587

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX