Pytorch 模型部署到服务器有没有什么好的方案?

2019-12-07 08:31:57 +08:00
 Olament

请问有没有类似下面这种的: 整个模型装进一个 docker 里面,然后提供一个 api。传入输入之后会返回一个 json 包含 inference 的结果。

3871 次点击
所在节点    问与答
6 条回复
jdhao
2019-12-07 09:15:26 +08:00
用 flask 部署,提供一个服务接口,docker 里面接口映射一下即可
widewing
2019-12-07 09:16:12 +08:00
kubeflow
jaswer
2019-12-07 10:26:27 +08:00
方案你不是自己都说出来了
Olament
2019-12-07 10:43:41 +08:00
@jaswer 我在想有没有类似于 tensorflow serving 这种的
tfdetang
2019-12-07 11:08:04 +08:00
不知道是不是我的错觉。模型用 tensorflow-serving-gpu 部署,同样的配置比本地的实验代码推理速度慢(同样配置)。当然 serving 部署比较方便是真的
hdbzsgm
2019-12-07 11:10:49 +08:00
seldon/tf serving/kf serving

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/626712

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX