做一个开箱即用的 stable diffustion 客户端有前途吗?

2023-07-12 21:15:21 +08:00
 OhMyZzh

目前使用 sd 的门槛较高,无论是本地部署还是云端部署,就我自己而言,使用 autodl 上租的 gpu 来玩,每次启动都要花 5 分钟左右完成一大堆初始化操作,初次安装镜像更是麻烦,所以我在想能不能有一个开箱即用的 sd 客户端,自动连接云端镜像,对小白友好,当然使用客户端收取费用会比 audodl 贵一些,大家觉得这个想法是否有前途,或者说市面上已经有这样的产品了?

2693 次点击
所在节点    奇思妙想
22 条回复
cctrv
2023-07-12 21:22:04 +08:00
Boyang
2023-07-12 21:46:34 +08:00
秋叶懒人包
OhMyZzh
2023-07-12 21:51:51 +08:00
@cctrv 这个貌似是消耗本地算力的,对于低配电脑玩家门槛还是很高啊
OhMyZzh
2023-07-12 21:53:59 +08:00
@Boyang 这个只是镜像吧?还是需要部署才能使用,对于小白用户而言不算开箱即用
KahnKahn
2023-07-12 23:08:09 +08:00
有前途,对标 figma
lithiumii
2023-07-12 23:14:51 +08:00
有很多了啊,首先 novelai 不就是嘛,然后还有 mage.space 之类的,还有帮你训练 lora 的,结合 gpt api 的,等等
naka110
2023-07-13 00:37:38 +08:00
LiblibAI 和吐司目前都提供了,而且还免费
OhMyZzh
2023-07-13 00:53:29 +08:00
@naka110 试了下 liblibai ,竟然能一键添加模型,体验太好了,看来我的问题已经解决了
tozp
2023-07-13 00:59:03 +08:00
程序员不要只关注技术,这个想法最大的阻碍在法律。
开源自己用没问题,给别人用也没问题,用它谋利属于商业行为,我记得 sd 许可证是不允许的。
OhMyZzh
2023-07-13 07:42:29 +08:00
@tozp 感谢提醒,查了下 OpenRAIL-M 可以商用
murmur
2023-07-13 07:55:08 +08:00
@OhMyZzh 本地玩耍 2060 级别的显卡就够了,门槛很高么
OhMyZzh
2023-07-13 09:15:03 +08:00
@murmur 2060 少说 1000 块吧,autodl 上 3080 0.88/小时,按一天玩 2 小时算,1000 块可以玩 2 年
thetbw
2023-07-13 09:16:45 +08:00
@OhMyZzh 两年后,2060 说不定还能 1500 卖出去
OhMyZzh
2023-07-13 09:22:28 +08:00
@thetbw 行。。年化收益 25%是吧
mmdsun
2023-07-13 10:44:24 +08:00
有前途,想用 AI 画图的人多,stable diffustion 部署麻烦。
skywang1994
2023-07-13 11:06:30 +08:00
OhMyZzh
2023-07-13 12:14:28 +08:00
@skywang1994 这个绝了
Boyang
2023-07-13 13:35:15 +08:00
@OhMyZzh 他自己有一个启动器,对于小白来讲基本上已经算是开箱即用了,可以下载个看看
fao931013
2023-07-13 16:41:13 +08:00
快马加编 图不够涩 狗头.jpg
OhMyZzh
2023-07-13 17:22:55 +08:00

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/956278

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX