请问深度学习真的需要吃大量的资源吗?

2019-09-03 12:59:51 +08:00
 d5

一个成绩很好的同学在读硕士,背景是国内排名很靠前的高校,非计算机和软工专业。总是需要一些高配的深度学习平台(例如 16 核+4 张 P100 及以上)来完成他的实践。

外行人觉得这个配置真的是很高很费钱了。有没有 cs 专业的大佬能够科普一下,日常科研的场景?请问什么体量的任务,需要这样的配置,连续不断跑一周才能完成?深度学习是否可能因为算法和设置不当,导致效率低下?

1377 次点击
所在节点    问与答
5 条回复
azh7138m
2019-09-03 13:06:21 +08:00
某学校是 8XP100 的工作站,这种配置
azh7138m
2019-09-03 13:07:24 +08:00
唔,前几天华为云开车的 AI 实例不都是 32C 128G 16 张加速卡,这种规格的吗?
shikimoon
2019-09-03 13:17:46 +08:00
和模型关系很大,本人是做 nlp 的,之前用的 svm 和 cnn 做语义相似度还有意图识别,这几个模型参数量不是很大,普通的 gpu 甚至是 cpu 一天足够训练出模型了,自从出了 bert 后,参数量达到上 e,甚至数十 e,我们用 p4 训练 1 周多才能出模型
pcmid
2019-09-03 13:30:19 +08:00
太上老君的炼丹炉为什么那么厉害呢 (
Pho3nix
2019-09-03 13:33:51 +08:00
4 张 P100 也就是 DGX-STATION 入门配置,图像方面的基本一个人就要吃一台。ps:16 核是很不专业的说法,家里那台破烂有 20 核

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/597486

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX