Inter uhd 显卡,不等同于 NVIDIA GPU 吧

2020-05-07 00:03:22 +08:00
 PbCopy111

https://github.com/dreamnettech/dreamtime

这个项目,有一个 option 选项,看起来 NV 的 GPU 比较厉害,我也不知道用 Inter 的集成显卡能不能处理,是费时间,还是效果不好呢。。。

看这里没有讨论的,我也不知道 github 的项目能不能讨论,还是没人知道这个机器学习的东东呢。

2456 次点击
所在节点    问与答
8 条回复
LZSZ
2020-05-07 00:04:47 +08:00
- -! 大哥这还用问吗?
SakuraSauce
2020-05-07 00:26:25 +08:00
inter=intel 喵?
NVIDIA 显卡肯定比核显厉害喵!
nvkou
2020-05-07 00:35:17 +08:00
Intel 不是 inter
是不同的
nv 的是战术核显卡
Intel 的是核显
都能加速单指令多数据的计算场景,但当量不一样啊
小马拉大车是不行的
这里不讨论是因为在这是常识
honjow
2020-05-07 00:38:57 +08:00
核显和独显。常识啊
minami
2020-05-07 00:39:58 +08:00
nVidia 的 CUDA 是深度学习的事实标准,除了谷歌有自己的 TPU,大部分研究人员都是用 N 卡进行训练的,所以无可取代,毕竟 CUDA 是私有标准
当然 AMD 搞了个骚操作,ROCm 平台可以白嫖 CUDA 的成果,比如你可以在 ROCm 上跑 PyTorch 这样本来是默认 CUDA 后端的深度学习库
Intel 这边,由于显卡比较弱势,主要靠 FPGA 发力。不过也搞了个奇怪的后端 PlaidML,使用 keras 接口,可以在 I/A/N 三家显卡上进行训练
以上这些都是关于深度学习训练的,如果只是推理,倒是可以利用各种推理库,将模型落地到设备上,比如腾讯的 ncnn,可以跑在任意支持 Vulkan 的显卡上,当然 CPU 也可以
minami
2020-05-07 00:49:43 +08:00
草草看了下,原模型是基于 PyTorch 的,那训练就基本告别 I 卡了,如果有模型结构的话,可以尝试导出到支持 I 卡的推理引擎上
ohao
2020-05-07 08:15:47 +08:00
看价格也知道,一块普通的 1080 N 卡 2K+

如果学习的话,可以租 GPU 的服务器,1080T 的 大概 900 人民币一个月
PbCopy111
2020-05-08 23:43:26 +08:00
其实。。。。。我就是来说说这个项目的事的。。。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/669107

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX