请教 Nvidia Tesla T4 的最佳实践

2020-03-24 11:11:36 +08:00
 xjx0524

原有几台 8 x 2080Ti 的服务器,一部分用来训练,一部分部署了 TensorRT Inference Server 做服务,同时也会用到 GPU 解码

现新到了 2 x T4 的机型,不太明白 T4 cores 都比 2080Ti 少,为什么一个机器只有 2 张卡。 想请教一下这个卡的优势是什么,怎样能最大限度的利用起来?

4836 次点击
所在节点    NVIDIA
5 条回复
nightwitch
2020-03-24 11:25:55 +08:00
2080ti 吊打 t4 。Nvidia 不允许 GTX 系列被用到数据中心,可能是你的公司收律师函了所以不得不买 Tesla 系列。
xjx0524
2020-03-24 13:51:45 +08:00
@nightwitch 原来是这样[捂脸哭]
cshlxm
2020-03-24 17:39:06 +08:00
一楼真相了~ 小公司的话偷偷用其实没事,但是指不定哪天律师函了就不好了,有能力还是买商业版本吧
Moming
2020-03-24 17:43:56 +08:00
T4 是用来做 inference 的,不是用来 train model 的。支持 quantization,16G 显存,多好啊。
xjx0524
2020-03-24 18:41:24 +08:00
@Moming 2080ti 也支持 quantization 吧,感觉 T4 唯一优势就是显存大了一点...

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/655620

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX