搞 AI 的兄弟们都选的多大的内存? 32 还是 64?

2023-07-26 12:22:40 +08:00
 lrigi

(别都选个 8GB 然后远程

8328 次点击
所在节点    MacBook Pro
64 条回复
shwnpol
2023-07-26 14:53:31 +08:00
用 cpu 跑模型至少 64g ,32 太小了塞不下
AOK123
2023-07-26 14:59:07 +08:00
@lrigi #19
cuda 生态不是那么容易跳出去的,显存再高没有 cuda 还是跑不了
Pteromyini
2023-07-26 15:04:09 +08:00
@lrigi #14 你想的太多了,这个理论性能指的是推理性能,训练和推理完全不是一回事,M2MAX 反向性能打不打得过 3080 都不好说,更别提 V100 了
AnsonUTF8
2023-07-26 15:48:04 +08:00
搞深度学习的用 16 的就够了哈哈哈,因为肯定得用服务器的~
winson030
2023-07-26 15:50:45 +08:00
大家预判下一个在计算领域吊打英伟达企业会是谁,赶紧买股票
lrigi
2023-07-26 16:00:27 +08:00
@AnsonUTF8 你说的也有道理,现在用了快十年的 Mac 就是 16G ,总是要升级一点的嘛
qzwmjv
2023-07-26 16:23:38 +08:00
@lrigi 据说 50%,16GB
LaurelHarmon
2023-07-26 16:26:31 +08:00
没必要本地搞,服务器很香,已经习惯 ssh Linux pytorch cuda 生态了
neopenx
2023-07-26 17:08:27 +08:00
@lrigi M2Max 只是 FP32 的 FLOPS 接近 V100 而已。FP16 的硬件加速在 ANE 上,做不了训练而且峰值还不如 FP32 。
lrigi
2023-07-26 17:20:04 +08:00
@neopenx 确实,你说到重点了,这里是问题
ShadowPower
2023-07-26 17:24:37 +08:00
买 8G 内存,加内存的钱拿去买 NVIDIA 显卡
6i3BMhWCpKaXhqQi
2023-07-26 17:25:17 +08:00
一定要 64 ,32G 路过,太惨了
6i3BMhWCpKaXhqQi
2023-07-26 17:27:06 +08:00
@czfy Mac 优势挺大的,统一内存会解决一些显存不够的问题。
ShadowPower
2023-07-26 17:37:21 +08:00
关于“M2 Max 的 TFLOPs 是不是跟 V100 差不多”这一点,可以参考这个:
https://sebastianraschka.com/blog/2022/pytorch-m1-gpu.html
虽然是去年测的 M1 ,但 M2 和 M1 没有本质区别,只是晶体管规模比 M1 大了一点而已

其实连 3060 都赢不过,然后 3060 比 V100 差多了,差在显存带宽和 Tensor Core 上,可以各租一台 VPS 对比测试
dlwlrm
2023-07-26 17:55:44 +08:00
我是单独组了台 windows 远程跑 ai 的……mac gpu 和内存加的钱都能买两台 windows 机子了
lrigi
2023-07-26 17:57:27 +08:00
@ShadowPower 显卡肯定不缺啊😂各种都有
lrigi
2023-07-26 18:26:42 +08:00
@ShadowPower youtube 看了下 确实有差距😌和 4090 差距在十倍吧我笑死。V100 都是要淘汰的卡了,那苹果这个确实不太行,那感觉 64G 内存确实没啥用,甚至 max 都没必要上了
mmdsun
2023-07-26 19:25:46 +08:00
AI 买 Mac 你会后悔的,
建议选至少 16GB 显存的 N 卡的 Windows 电脑,WSL 2 乌班图性能可以跑满,或者不玩游戏直接装乌班图就行
Aspector
2023-07-26 19:26:24 +08:00
@murmur 应该不止一半,我的 32GB 能正常跑 INT4 的人 30B ,这个理论占用是 20GB 的。再往上就不行了
Xie123
2023-07-26 19:30:18 +08:00
我是新人,求问,手机的 V 社没办法发帖子吗?我用的谷歌

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/959841

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX