M2 Max(14) 对比 M1 Max(16) 的 pytorch 推理性能简测

2023-02-27 11:55:36 +08:00
 adonishong

刚到手, 简单测了一下 pytorch 1.x + clip, 跑的是 ViT-L/14@336px 模型, MPS 的 backend, 每张图跑到 32batch, 每张图推理时间 M1 Max 大概是 0.2x 秒, M2 Max 大概是 0.11 秒, 性能翻倍很明显, 参考一下 1080ti 的对应性能是 0.06 秒左右

也就是说 M2 Max 的 MPS 性能有可能达到 1080Ti 的百分之 60 左右了

再强调一下, 用的是 MPS 直接跑的推理, 不是转 onnx 以后用 npu 跑的

3243 次点击
所在节点    MacBook Pro
13 条回复
neopenx
2023-02-27 13:22:13 +08:00
这俩 GPU 的 FP32 Peak 本来就差不多。
MPS 的 Gemm 实现太差,你跑一下就知道大概只能到 65%的 peak 。
Transformer 的 90%计算量都在 Gemm 上。
cublas 的 Gemm 都优化多少年了,上 90%以上的 peak 非常简单。
就这一点上,苹果要用更高的设计峰值才能去打 N 卡。
你要是换 FP16 ,10 系后的卡大部分靠 TensorCore 就能把果子 GPU 计算打到自闭
caEsIum
2023-02-27 13:27:15 +08:00
14 寸的笔记本性能释放受限,建议能 16 还是 16 ,差不了多少钱。
没有移动办公需求的话,非常建议直接 Studio ( M2 系列),如果今年还有的话。
gefangshuai
2023-02-27 13:51:34 +08:00
@caEsIum 差 3k 叫差不了多少钱?
caEsIum
2023-02-27 13:56:06 +08:00
@gefangshuai M2 Max 对比只差 1500 ,谁还买 M1 Max 啊。
adonishong
2023-02-27 16:04:32 +08:00
@neopenx 这就是准备在没有网络的时候跑跑原型做一下基础的代码测试的 ... 正经炼丹那肯定是发到远程主机上拿英伟达的卡跑啊
adonishong
2023-02-27 16:07:13 +08:00
@neopenx 请教一下目前 amd 那边 ROCm 的实现情况怎么样了? 效率方面和英伟达那边 cublas, cudnn 的差距能有多大有了解么?
neopenx
2023-02-27 16:58:32 +08:00
@adonishong RDNA 游戏卡没有 TensorCore 对标单元,处境和果子类似,没啥用。你要用 FP16 只能买 CDNA 的数据中心卡,好像优化的还可以。不过 CDNA 肯定没 GeForce 划算,GeForce 现在砍掉的只有 PCIE/NVLINK P2P ,等于只禁掉你在数据中心的高速互联。
johnsonyeen
2023-02-27 18:06:35 +08:00
14 寸 30C 的?
adonishong
2023-02-27 18:34:07 +08:00
adonishong
2023-02-27 18:35:01 +08:00
@neopenx 收到, 感谢
sherwin008
2023-02-28 14:23:51 +08:00
@caEsIum 不是说从性能上来说差不多么?只是大屏幕与续航体验的差距
nimei128
2023-03-16 14:15:54 +08:00
mps 就是一坨 shit 没有意义
adonishong
2023-03-22 19:08:07 +08:00
这一坨 shit 在飞机高铁上这种不方便连远端服务器的环境下, 能让你还相对比较高效的调你的神经网络调个几个小时呢 ...

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/919466

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX