V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
ElliotQi
V2EX  ›  Apple

关于 M1 Max| M1 Pro 测试一些深度学习任务

  •  
  •   ElliotQi · 2021-10-26 23:22:34 +08:00 · 4894 次点击
    这是一个创建于 1121 天前的主题,其中的信息可能已经有所发展或是发生改变。

    有没有到货的老哥做一下简单 baseline 的测评对比,用 tf(torch 可能适配还不完整)训的话相当于隔壁什么卡捏?

    26 条回复    2022-05-29 10:58:44 +08:00
    ElliotQi
        1
    ElliotQi  
    OP
       2021-10-26 23:23:40 +08:00
    尝试搜了下,还没看到相关测评的视频儿
    INFP
        2
    INFP  
       2021-10-26 23:28:44 +08:00
    只能用 cpu 做,torch 用不了苹果的 gpu
    ElliotQi
        3
    ElliotQi  
    OP
       2021-10-26 23:35:56 +08:00
    @INFP tf 有测过吗?m1 我跑过一个小模型,当时报错还蛮多...提了 issue 后不知道修复没
    kuhung
        4
    kuhung  
       2021-10-26 23:49:14 +08:00 via iPhone
    今天好像看到一个视频:深度学习没啥大提升,相较于旧款独显速度反而更慢,原因是 tf 还没支持好。然后苹果说在做优化了🐶……
    INFP
        5
    INFP  
       2021-10-26 23:54:55 +08:00
    @ElliotQi

    torch M1 一开始就可以用,比我测试的 i5-8400 快很多很多,不过 8400 也不是什么好 cpu 就是了。
    可能我跑的 demo 没那么复杂,没出现过报错。
    INFP
        6
    INFP  
       2021-10-26 23:55:03 +08:00
    @ElliotQi tf 不行
    INFP
        7
    INFP  
       2021-10-26 23:56:00 +08:00
    @ElliotQi tf 当时官方挂了个适配版的仓库,说是快多少多少,然后就没消息了
    ElliotQi
        8
    ElliotQi  
    OP
       2021-10-27 00:00:19 +08:00
    @kuhung 苹果还优化啥...coreml 至今是个迷🐶
    forgetlight
        9
    forgetlight  
       2021-10-27 00:01:40 +08:00
    做深度学习的还是 remote vscode cluster; colab 吧.. 前几天还在推特上看到一堆人在讨论, 用 m1 的都在劝退想要用这个机器的多 learning 的.
    ElliotQi
        10
    ElliotQi  
    OP
       2021-10-27 00:03:30 +08:00
    @INFP torch cpu 推理我也试过 速度不算很慢吧。就是这 gpu 和神经网络引擎就摆在那,却用不了也太难受了
    平时 debug 还是有这种需求的,如果 m1 max 算力可以推动生态的话,手上 m1 想吃这波红利...不只当成一个 ssh 机器
    INFP
        11
    INFP  
       2021-10-27 00:11:59 +08:00
    @ElliotQi 除非有集群用的那种苹果芯片,不然个人单机 debug 的应用场景不太值得他们去适配 Metal
    ZRS
        12
    ZRS  
       2021-10-27 01:27:27 +08:00
    刚才找了一圈暂时还没看到有人做评测
    rpman
        13
    rpman  
       2021-10-27 02:02:06 +08:00 via iPhone
    @ElliotQi 主要是需求太少了,也就学校喜欢搞这套
    deetz
        14
    deetz  
       2021-10-27 05:40:37 +08:00
    M1 是有的,不过我也在等 M1 pro 和 M1 max 。

    M1 的结果见下,也有同 colab 的对比。
    https://www.mrdbourke.com/m1-macbook-vs-intel-macbook-speed-comparison/
    deetz
        15
    deetz  
       2021-10-27 05:43:14 +08:00
    @ZRS ifanr 提了一嘴但是说测试报错了。他们没有更新测试工具,或者没有能力用适配了 apple silicon 的 tensorflow 自己写代码来做。
    makeitwork
        16
    makeitwork  
       2021-10-27 07:30:38 +08:00
    @deetz 不错,刚入了 max
    刚跑了一下,报错,晚点搞好环境再看看
    makeitwork
        18
    makeitwork  
       2021-10-27 08:05:28 +08:00
    @xdays 跟 3090 对比,差距很大啊
    telaviv
        19
    telaviv  
       2021-10-27 08:23:31 +08:00
    torch 只支持 CPU ,tensorflow 能用 GPU 。
    ekidona
        20
    ekidona  
       2021-10-27 08:32:03 +08:00 via iPhone
    果家可能还在搞一些类似于 CUDA 和 RoCM 的工具, 等这些成熟了 Unified Memory + Neural Architecute 的优势才会体现出来,现阶段不存在什么可比性。
    deetz
        21
    deetz  
       2021-10-27 09:02:13 +08:00   ❤️ 2
    @ekidona 可能性比较小。几个理由:

    1 )现在 ML 大头还是在 2B 客户和数据中心上,预训练模型规模越来越大,单机没法处理。
    2 )从技术上讲,Apple 自己的模型训练也是跑在集群的 GPU 上的。
    3 ) Apple 自己的 ML 团队管理也很混乱。前段时间 apple health 团队内部纷争是一个例子。

    第一点说明从市场上来说没有利润驱动的动力,第二三点说明内部的动力可能也比较小。
    makeitwork
        22
    makeitwork  
       2021-10-27 10:05:16 +08:00
    说白了,阻止炼丹师用 m1max 的最大理由是 pytorch 不支持(短期内也不可能支持) m1max 。一票否决了。tf 在发论文的那群人里已经没人用了。
    liutian9
        23
    liutian9  
       2021-10-27 11:42:30 +08:00
    @deetz 同意,果子内部硬件团队地位碾压软件,要做个 in house CUDA 级别的工具肯定没法说服上面投入足够的资源
    ekidona
        24
    ekidona  
       2021-10-28 15:20:36 +08:00 via iPhone
    @deetz 大佬也是果家的嘛?
    2NUT
        25
    2NUT  
       2022-05-29 10:50:10 +08:00
    @makeitwork #22 现在支持了
    ElliotQi
        26
    ElliotQi  
    OP
       2022-05-29 10:58:44 +08:00
    @2NUT 很多 ops 还不能用,再等等吧
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   3092 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 87ms · UTC 13:47 · PVG 21:47 · LAX 05:47 · JFK 08:47
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.