搞 AI 的兄弟们都选的多大的内存? 32 还是 64?

2023-07-26 12:22:40 +08:00
 lrigi

(别都选个 8GB 然后远程

8353 次点击
所在节点    MacBook Pro
64 条回复
siriussilen
2023-07-26 19:34:12 +08:00
老哥,我们都是代码提交到服务器上,本机的要求就是内存大就好了( 30 个网页 idea pycharm dataspell 同事打开不卡哪种)
lrigi
2023-07-26 19:39:19 +08:00
@mmdsun 都用了快十年 Mac 了,就从来没考虑过 Windows 。没事俺有服务器,显卡其实无关紧要
lrigi
2023-07-26 19:41:53 +08:00
@siriussilen 我也是这样想的呀😌本地要是能高速跑跑大模型 int4 推理就更好了。我就用 vscode ,transmit ,pdf ,网页一般不超过十个。之前试过 8G 的 mac mini 完全够了。
lrigi
2023-07-26 19:44:52 +08:00
@Aspector 能跑 30B 其实就够了,再大的话不如直接模型并行丢服务器了
mauis
2023-07-26 20:05:59 +08:00
完 ai 就别折腾 mac 了。省下来钱租 v100 吧。要说纯推理买张 t4 也很香
izzy27
2023-07-26 21:24:31 +08:00
就是选低配然后远程连到服务器呀,把钱省下来花在显卡上面不香吗
zhouyg
2023-07-26 21:30:28 +08:00
搭楼问,普通玩家,搞 AI 用什么机器,显卡和系统比较好?
asdgsdg98
2023-07-26 21:33:31 +08:00
还不如买个 4070 以上的卡
WuSiYu
2023-07-26 22:29:39 +08:00
mac 炼丹图一乐,除了跑龟速的 LLM 推理/ft ,没别的用
qweruiop
2023-07-27 00:02:57 +08:00
玩 ai 就算了吧,nvidian 的 cuda ,搞了十年了,apple 和他谈不拢,现在业界的生态基本上都是 cuda 上的吧。。。
murmur
2023-07-27 07:44:06 +08:00
@zhouyg 个人玩家就是 2080ti 魔改 22g ,或者等新的 3070 魔改卡,想微调或者炼丹就去租服务器
lchynn
2023-07-27 09:17:50 +08:00
M2 上据说 跑 LLAMA.C 的编译版本,推理速度大概就有几十个 token/s ;
赶得上英伟达单卡 V100+原始的 llama2 模型了吧?
terminals
2023-07-27 09:50:24 +08:00
A100 80G 显存的够用了,ubuntu 系统跑
terminals
2023-07-27 09:53:00 +08:00
普通玩家,3090ti ,除了大语言模型,其他都够用了,用 ubuntu 系统跑,用 ubuntu 系统跑,用 ubuntu 系统跑
ShadowPower
2023-07-27 10:10:46 +08:00
@lchynn 那是 15M 参数量的模型……
其实普通的电脑也可以,那个项目优化并不好,是教学用途的
iamqk
2023-07-27 10:42:44 +08:00
@ShadowPower 最新评测结果 https://www.lightly.ai/post/apple-m1-and-m2-performance-for-training-ssl-models m2 max 的 gpu 性能应该是 4070 左右吧?
iamqk
2023-07-27 10:53:20 +08:00
应该是 m2 ultra ,记错了
summersun2021
2023-07-27 17:28:26 +08:00
@lrigi #14 m1 max 64g ,跑 sd ,风扇像拖拉机一样,跑了 30 分钟就关了,不敢试了。
EchoAI
2023-07-27 22:15:25 +08:00
使用服务器跑,ubuntu 系统 384GB 的内存。
lrigi
2023-07-27 23:32:15 +08:00
@EchoAI 服务器内存再大都不妨碍思考是买 32G 还是 64G 的 Mac😌

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/959841

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX