年终了辛苦一年准备奖励自己。 老婆大人批了 6000 的预算。 现在纠结是买显卡还是买新手机
现在有一张 GTX1080 和 iphone 12
Oppo 是看它拍照好看,很有吸引力 显卡的话是目前在从事 AI 应用开发,有推理需求,自己想尝试本地推理小模型 当然主要还是想玩游戏 老婆知道我喜欢玩游戏,是比较支持我买显卡的。
现在征求一下大兄弟们的意见,买哪个?纠结中
1
ssiitotoo 4 小时 41 分钟前 2
很明显你玩游戏需求大于你的拍照需求
|
2
asche910 4 小时 40 分钟前
肯定显卡啊,手机,不是能拍照就行吗
|
3
jackple 4 小时 40 分钟前
批多 6000 吗, 烦死了...
|
4
zdl0929 4 小时 39 分钟前
手机不是能扫码就行了吗
|
5
mrl1996 4 小时 39 分钟前
玩游戏吧。你手机应该不急
|
6
dust0522 4 小时 39 分钟前
显卡
|
7
csys 4 小时 39 分钟前
可怜
|
8
keyboardCat 4 小时 38 分钟前
肯定显卡啊。
|
9
tommyshelbyV2 OP 好像大家都推荐显卡,那有没有合适的型号推荐一下,又能玩游戏,又能推理一下本地小模型的,牌子无所谓
|
10
dust0522 4 小时 37 分钟前
|
11
tommyshelbyV2 OP @dust0522 只让选一个 哈哈哈
|
12
mz02005 4 小时 36 分钟前 via iPhone 4
选择修了老婆,掌握财政大权🥹
|
13
nothing2 4 小时 36 分钟前 via iPhone
换了显卡还要换主板硬盘内存…支持换显卡
|
14
tommyshelbyV2 OP 还想买拓竹的 3D 打印机来着,但是只让 3 选一
|
15
dust0522 4 小时 34 分钟前
那七彩虹的 4070ti super 16G ,刚好 6k 左右
|
16
oppoic 4 小时 33 分钟前
现实中这种人多不多?
|
17
tommyshelbyV2 OP @dust052 可以我去看看,50 系出来,这个预算还能再上一档吗
|
19
tommyshelbyV2 OP @dust0522 我现在的只有 500w, 那我得在看看,看能不能多搞点预算哈哈哈
|
20
xiaoxixi 4 小时 32 分钟前
显卡跟手机一卖 两个都换
|
21
tommyshelbyV2 OP @oppoic 啥种人 我这种吗哈哈哈
|
22
tangchi695 4 小时 30 分钟前 3
还好我婚前把电脑主机里的东西都换了🤭
|
23
tommyshelbyV2 OP @xiaoxixi 这个思路没想过诶,不过我还在开发 ios app 。不过好像也不是不能够妥协下
|
24
woodfizky 4 小时 29 分钟前
|
25
ijrou 4 小时 28 分钟前
相机好 == 帮别人(老婆)拍照 == 安慰自己喜欢拍照
显卡好 == 袭击喜欢玩游戏 == 老婆比较支持 |
26
tommyshelbyV2 OP @tangchi695 老哥有经验啊,不过我已经入套了,早知道也和你一样了
|
27
249239432 4 小时 27 分钟前
2060 已经满足了,可以做训练又可以打 3A 游戏了,才 1000 多
剩下 5000 再买个手机 |
28
tommyshelbyV2 OP @woodfizky 确实,现在的 cpu 也是 5600x, 32G 的内存,主板也是很水的,一升级其他也想升级哈哈哈
|
29
LCheng 4 小时 27 分钟前
7900xt ,amd 除了有一丢丢驱动上的问题,其他(价格)完美,4k 主流游戏都能直接拉满,在也不用担心画质是低还是特低了
|
30
tommyshelbyV2 OP @ijrou 确实,这个也就是我纠结的原因,老哥说到点子上了,感觉买手机的话 有点违心了
|
31
cnkuner 4 小时 26 分钟前 8
肯定是给老婆买个包包了,你还真买显卡啊?
|
32
tommyshelbyV2 OP @LCheng 4k 都可以吗,这么顶,那推理模型哪些 OK 不
|
33
mc2tap 4 小时 25 分钟前
两个都卖,4060ti+接下来的次旗舰
|
35
Chrizxy 4 小时 25 分钟前
提供一个新思路,端侧 AI 买显卡,云侧 AI 买 Find 。
|
36
dany663399 4 小时 24 分钟前
oppo 不知道怎么样 反正我是 12 换 15pm 如果有的选我会吧钱省下来 12 再战个 2 年
|
37
zdw189803631 4 小时 22 分钟前
不理解,为什么不能都买,显卡工作都能用的到,手机换个好点的,多用个几年也不是特别普涨浪费吧?
|
38
LCheng 4 小时 21 分钟前
@tommyshelbyV2 这块没了解过,应该能用吧🐶
|
39
EJW 4 小时 21 分钟前
这个时间点买显卡有点尴尬,推荐等明年一月份发布的 50 系,你这预算够摸到 70 级别了。
|
42
dododada 4 小时 17 分钟前
6000 能买什么显卡?
3090 涡轮?先攒一张,下次批预算再攒一张,搞个交火凑 48g ; 或者买个 jetson |
43
coderluan 4 小时 15 分钟前
再花 6k 都买了,你辛苦一年了,值得的。
|
45
ephemeron 3 小时 58 分钟前
哎
|
46
fengjianche 3 小时 50 分钟前
唉,真可怜,
|
48
yongp 3 小时 42 分钟前 6
恐婚贴,赚钱的人,没有支配权
|
49
tommyshelbyV2 OP 公司里面用来做离线大模型的推理的设备,配置了两张 4090 ,使用下来感觉都不太够。
其实心里还是有点纠结这点,哪怕买了显卡,自己本地推理还是不太够,撑死了玩玩一些小模型,也不能对外提供服务 |
50
ljian6530 3 小时 27 分钟前
买一个 ps5 ,剩下的存着,12 再换块电池,再战 3 年。
|
51
fxxkgw 3 小时 27 分钟前 via Android
买显卡吧
另外真的需要批还是玩梗?要是前者真是太悲哀了 |
53
Donaldo 3 小时 22 分钟前
买个 22g 的 2080ti
|
54
COW 3 小时 17 分钟前 via Android
6000 再整个 PC ,回头再整个 6000 就能组集群了
|
55
WhiteHu 3 小时 4 分钟前
选新老婆
|
56
killva4624 3 小时 3 分钟前
6K 够换 4060Ti 16G+ 12500KF 了,显示器淘个本地二手的。
不知道楼主玩啥类型游戏,但大部份性能是够的... |
57
heftyMan 2 小时 58 分钟前
6000 就 6000 吧,什么老婆批预算,搞笑的一笔,你家开公司了,老婆财务官,还是你自己赚的钱没有支配权?
|
58
succ0520 2 小时 57 分钟前 via iPhone
小朋友才做选择题 是我全都要
|
59
coffeesun 2 小时 56 分钟前
老婆允许我挣的钱,除家庭开销外月光,现在都不知道买啥,感觉没啥需求了。
|
60
dapang1221 2 小时 54 分钟前
窝囊,给你一拳,建议 6000 先买个红米,剩下的钱给老婆买礼物
|
61
mhj144007 2 小时 53 分钟前
这老婆不糙
|
62
tommyshelbyV2 OP @fxxkgw 没玩梗哈哈哈,也还好。家里她管钱
|
63
tommyshelbyV2 OP @coffeesun 那嫂子不错啊
|
64
tommyshelbyV2 OP @heftyMan 别急嘛大兄弟,世界上总有跟你情况不一样的哈哈哈
|
65
tommyshelbyV2 OP @killva4624 挺喜欢玩 3d 的,比如黑马喽
|
66
tommyshelbyV2 OP @Donaldo 这个我搜到了,有在考虑,我看 3090 的 24G 也能拿下,正在看咸鱼
|
67
tommyshelbyV2 OP @ssiitotoo 不违心的讲,是的
|
68
tommyshelbyV2 OP @dododada 3090 我搜了一下,感觉可以,目前看起来是最优解,有 24G 的显存
|
69
tommyshelbyV2 OP @succ0520 我也想的,哈哈哈,但是怕在加一会这预算都没了
|
70
chashao 2 小时 43 分钟前
|
71
feikaras 2 小时 41 分钟前 via iPhone
好惨 6000 都要问老婆。
省着吧。都不咋样都不如不买。 |
72
liulicaixiao 2 小时 39 分钟前
你活的也太惨了,搞成这样我宁愿不结婚
|
73
Donaldo 2 小时 39 分钟前
@tommyshelbyV2 #66 24g 也整不了啥的,不如双卡 2080ti 22g ,至少能流畅跑个 32b 的模型,甚至沾个 72b 4bit 量化的边。。家用主机一般也就是两条全场 PCI-E 了,CPU 通道和电源可能也不够,所以三卡哪怕预算超不了多少也别考虑了。剩下小一千块想买点啥,或者两口子搓一顿好的也不错。
不过你要是考虑打游戏,那就用新一点的吧,也别双卡了。说实话,本地模型就图个乐,这点预算再撑死也就是 60g 左右的显存,微调的门槛都不够,推理除了 RAG 什么的,也折腾不出个啥 |
74
Garalt 2 小时 20 分钟前
你赚这么多钱钱还需要老婆批准买显卡?别成李行亮二号了
|
75
tommyshelbyV2 OP @Donaldo 这个确实,公司业务用的双 4090 方案,跑 72b 都很不够。
其实感觉跑本地模型也是伪需求。小参数的模型性能更差了。也干不了啥。最重要是哪怕跑出来模型,最后部署服务也是要上服务器。 本来也有想过做点 AI 应用的副业的,但是现在其实 AI 的能力非常有限,更重要的是需求难找 |
76
bettesafford24 2 小时 14 分钟前
可怜
|
77
llanero 2 小时 12 分钟前
中年男人的悲哀
|
78
Aily 1 小时 8 分钟前
哈哈,42 岁的我,拿到这预算,肯定是买个便宜货谎报一下,剩下钱存起来,用处大大滴……
|
80
EndlessMemory 1 小时 0 分钟前
本地推理?不如租显卡
|
81
z1829909 57 分钟前
@tommyshelbyV2 个人的电脑没必要跑大模型, 能用公司的就用公司的, 手痒可以租机器跑着玩玩.
如果为了娱乐跑出来也就那样, 还没写点别的代码有意思. 如果是为了搞钱, 用 api 做应用才有一点可能赚钱, 搞基础大模型纯赔钱. |
82
tommyshelbyV2 OP @Aily 哈哈哈哈哈
|
83
tommyshelbyV2 OP @z1829909 就是做业务发现也就那样,想看看端侧小模型能不能解决非常具体的问题,然后通过这个来搞点副业
|