1800 路视频推理服务器要几张显卡

36 天前
 dododada

有个客户有 1800 个摄像头,用的海康的监控方案,海康的监控服务器。

现在客户想做 AI 分析,要求服务不影响原来的监控

有两个问题: 1 、不晓得他们的摄像头能不能多路推流,或者我们拉流会不会影响原来的视频流 2 、硬件配置不清楚要多高的

问题 1 ,我们也不知道实际会发生什么,要做测试;

现在就问题 2 ,根据我们已有的经验,10 帧抽一帧,单张 4090 一天能处理 600 小时的视频

如果不考虑准确性,按 50 帧抽一帧,1800 * 24 / 600 / 5 => 15 张卡,单台服务器配 4 张 4090 ,要 4 台

如果 cpu 升级到志强 3 代 8 系,8352 * 2

这个配置能跑得动么?有没有做过的兄弟,给点意见。

或者两张 4090 可以换成 A6000 ?

另外 8352 和 8358 的价格,为啥差那么多?

1706 次点击
所在节点    程序员
20 条回复
CodeLauncher
36 天前
操 1800 路摄像头拿来 AI 分析?
dododada
36 天前
@CodeLauncher 是啊,没玩过这么大的,所以来问问兄弟们的意见,有没有大佬提提建议
wlm907091813
36 天前
看着就复杂,配置跑不跑得动要看你们这个分析平台对于配置的要求,肯定得测试,如果处理的结果没有时效性要求,4090 的性价比最高,别犹豫老哥,我们做 4090 算力池的测试过太多了
uiosun
36 天前
@wlm907091813 4090 做 AI 不是不能交火么?这会不会是个问题
wlm907091813
36 天前
不是问题
sunchuo
36 天前
考虑一下带宽和磁盘读写。

用 amd 的 u 。
ffmpeg rtsp 抓图。
dododada
36 天前
@sunchuo 如果能拉流或者多路推流,磁盘统统 ssd 了。

视频数据不落地,还是在海康那边,所以存储这块还好;

带宽的话,客户说是核心万兆,但是具体要不要用光口还不确定,因为不知道客户说的核心到底是啥
dododada
36 天前
@wlm907091813 有时效要求,要告警推送的,延后一点时间问题不大,但是不能太长
wlm907091813
36 天前
@dododada 海康的监控平台不是自身就有带 AI 功能了吗?特别是告警这类的,比较常见的功能了呀
ReZer0
36 天前
不明觉厉,我这边只能 mark 顺便帮顶一下涨涨见识了。另外看 OP 这个需求,敢问 OP 的客户……是不是政企或者帽子叔叔那块的……
dododada
36 天前
@wlm907091813 嗯,客户的设备不是同时采购的,攒了很多年。所以海康的设备,具体接入了哪些摄像头,还不清楚;至于为什么没有用海康的 AI 方案,这个倒不清楚
DaiShu888
36 天前
我以为我看错了,还真的是 1800 路。
我不懂 AI ,但监控还是有点经验的。

首先你要看这 1800 路的清晰度是 1080 还是 2K 还是 4K 的,海康威视的摄像头都支持 ONVIF 协议,你可以认真研究下这个协议,应该可以做到直接从摄像头获取单帧画面。并且海康威视的摄像头大部分都自带人脸识别和车辆车牌识别,也提供了相应的接口,直接通过这些接口获取关键画面更有效率。

你是不可能直接获取摄像头的原始视频流的,10 路还好说,1800 路你算下得多大的带宽。
buruoyanyang
36 天前
走海康的平台的话(isc?),据我所知,推流是有带宽上限的,1800 路都走平台根本推不了。大华的一体机大概是 700m ,海康也差不太多。还是楼上说的靠谱点,走 onvif 可能更合适一点。
frayesshi1
36 天前
第一个问题,最好是有推流服务器,拉流存在摄像头拉流的设备太多,拉不到流,普通海康摄像头好像最多支持四个拉流设备。第二个问题,之前做过 100 路的实时视频推流,每路 25fps ,每秒抽三帧,业务就是简单的一些工业检测等,单台服务器配 4 张 4090 刚好够用,但是需要你的软件对每张显卡负载均衡,并且还得要求你的软件支持显卡硬解码
dododada
36 天前
@ReZer0 大学,室内+室外监控,攒了好多年就攒了这么多
HOMO114514
36 天前
这种规模得优先考虑端侧或者专用机,海康自己有一个融合超脑产线,单机有最多能承载 256 个流的产品。
先不说别的,同时维护 1800 路流的实现难度比同时算 1800 规模的图像高多了
dododada
36 天前
@frayesshi1 大兄弟你这个服务器用的什么 cpu ,我们现在发现多张卡多算法的话,cpu 要加量。

头条机房有一种散片,据说是 8352M 的定制升级款,还有腾讯机房的散片,性能和 8352m 差不多,具体怎么选也没法测,这种规格的 cpu 根本借不到
dododada
36 天前
@dododada 比较奇怪的是,华为的鲲鹏+昇腾,cpu 的压力反而小很多
frayesshi1
35 天前
@dododada i9 吧,x299 的主板。其他几十路的项目上,x99+E5 二代洋垃圾也可以,主要跑深度学习算法,并且编解码都在 GPU 上面,cpu 应该不得加量啊。你这个 1800 路个人建议你用多台服务器集群起来
dododada
30 天前
搞了个配置,xeno 8488c * 2 + 4090 * 4 ,算了一下,大概可以满足需求,有没有兄弟帮忙看下

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1064687

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX