V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
onikage
V2EX  ›  问与答

ai 训练(非大模型)现在可以用 cpu 跑吗?

  •  
  •   onikage · 116 天前 · 2755 次点击
    这是一个创建于 116 天前的主题,其中的信息可能已经有所发展或是发生改变。

    今年想了解下 ai 相关,暂时不考虑大模型,只是为了解决应用层面一些特定场景,比如特定物品识别之类的,标注数据量也不多,训练的时候需不需要用到显卡? 现在在用 12500cpu ,没有显卡,另外也想请教下苹果 m 对这种玩票性质训练有加成吗?

    26 条回复    2024-01-31 01:01:45 +08:00
    elliottzhao87
        1
    elliottzhao87  
       116 天前   ❤️ 2
    前不久跑了一个小小的模型,就是几万个参数那种,CPU 完全没问题……
    xinge666
        2
    xinge666  
       116 天前 via iPhone
    TensorFlow 和 PyTorch 都已经有 mps 加速了,用来加速训练简单的模型是没问题的。
    lpf0309
        3
    lpf0309  
       116 天前
    CPU 显存低,bitchsize 太小,准确率和速度都会降低。苹果 m 应该也没加成
    Wataru
        4
    Wataru  
       116 天前
    ultra 带 npu 可以跑
    paidaxtis
        5
    paidaxtis  
       116 天前 via Android
    @lpf0309 cpu 用内存
    lchynn
        6
    lchynn  
       116 天前
    INTEL 有个新出的 BigDL 框架,可以看看。不过对 CPU 好像有要求要新一点的,太老不行。

    https://github.com/intel-analytics/BigDL
    shellcodecow
        7
    shellcodecow  
       116 天前
    自来水管不用 你用吸管?
    Muniesa
        8
    Muniesa  
       116 天前 via Android   ❤️ 1
    一直都可以,就是比 GPU 慢亿点点。pytorch 有对 m 系列的 GPU 支持,比 CPU 肯定快多了。如果只是玩票可以考虑用 Google colab 用 GPU 训练,训练完可以在自己电脑 CPU 上推理,CPU 推理也慢但是没有训练慢那么多。
    raptor
        9
    raptor  
       116 天前
    @lchynn 需要新的 ultra CPU 吧
    PsychoKidA
        10
    PsychoKidA  
       116 天前
    物品识别肯定可以。用 .onnx 模型搭配 ONNX 框架就行。如果要加成,要看芯片商出的推理框架,比如苹果就是 CoreML ,高通就是 QNN 。
    xz410236056
        11
    xz410236056  
       116 天前
    mac 有 MPS 可以加速训练
    Morriaty
        12
    Morriaty  
       116 天前   ❤️ 1
    你要是没接触过,就别纠结 CPU GPU 的问题啊,先把 numpy 、torch 、transforms 这些库搞熟
    siriussilen
        13
    siriussilen  
       116 天前
    可以,就是慢了点
    fredweili
        14
    fredweili  
       116 天前
    CPU 不行,苹果就更不行了,都是英伟达的 CUDA
    CrazyRundong
        15
    CrazyRundong  
       116 天前 via iPhone   ❤️ 1
    12500 cpu 是指一万两千五百个 cpu 核心的集群还是说一颗 Intel 12500 ?前者可以试试 Intel 的加速库 + MPI 分布式训练,后者够呛。即使是训 100M 级别的 CV 模型,以前用 1080Ti 都觉得慢得不行
    onikage
        16
    onikage  
    OP
       116 天前
    @Muniesa 别吓我,初期肯定反复试错,一等几个小时肯定受不了。
    onikage
        17
    onikage  
    OP
       116 天前
    @Morriaty 这些肯定是要了解的
    onikage
        18
    onikage  
    OP
       116 天前
    @CrazyRundong 就是普通的 12 代酷睿 i5
    paopjian
        19
    paopjian  
       116 天前
    你这种情况为什么不白嫖 colab
    736531683
        20
    736531683  
       116 天前
    完全可以的,就是比较慢,苹果早就支持 cuda 加速了,前面不要乱说。
    loryyang
        21
    loryyang  
       116 天前
    你问问题的这个方式只能说明你对模型训练的知识了解太少了。不要多问,先上手去做吧
    loryyang
        22
    loryyang  
       116 天前   ❤️ 1
    @loryyang #21 稍微补充一下,不同的模型训练都是不一样的,底下到底用了什么框架,tf 还是 pytorch ,都是不太一样的。你应该先选择一个你感兴趣的模型,然后翻一下对应的文档(基本上都会清楚说明的),自己再去造轮子训练一下
    cherryas
        23
    cherryas  
       116 天前
    铁杵可以磨成针吗和这个问题的答案一致。
    cherryas
        24
    cherryas  
       116 天前
    当鸡啄完米,狗吃完面,火烧断锁就可以训练完一次了。
    wangzhangup
        25
    wangzhangup  
       115 天前
    计算机视觉方面的模型对于算力要求比较低,但是训练的话用 CPU 不太行。
    至于大模型都不是一个 GPU 能搞定的,需要 GPU 集群才能训练大模型。
    charslee013
        26
    charslee013  
       115 天前   ❤️ 1
    当然可以呀 很早之前我就写过使用 llama.cpp 在 M1 上直接使用 CPU 来运行 llama 7B 模型 https://www.v2ex.com/t/923536

    现在的话 llama.cpp 还支持 openblas 加速,CPU 跑 1.3B 或者 3B 4bit 量化后的都是没问题的

    > 训练的时候需不需要用到显卡?
    训练最好还是用显卡,而且还是大显存那种避免 Out of CUDA Memory

    训练完毕后删掉一些不用的层转 onnx 格式直接用 CPU 跑应该是没问题的,就是速度懂得都懂 🤔
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2251 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 168ms · UTC 11:17 · PVG 19:17 · LAX 04:17 · JFK 07:17
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.