目前社区已经有多个移动端深度学习推理框架,如:NCNN 、MNN... 这些推理引擎都给社区的用户带来了在移动端上部署深度学习非常多的便利,但是他们也都有一个共性问题:随着不断地迭代以及性能优化,运行时库会逐渐的增大,特别是在不同算子 fuse 的时候,会导致非常多的长尾算子,这就会增大我们 App 或者 SDK 的体积。
为了解决这个问题,由 MegEngine 团队开源的 MegCC 创新使用模型预编译的方案,生成模型推理必要的代码,去除掉了和模型推理无关的代码,因此极大程度上减少了推理引擎的体积。主要方法是:
将传统框架运行时的必要步骤:计算图优化、Kernel 选择、内存分配都移到编译时,从而最大程度上减少了 Runtime 时的二进制体积大小,并根据模型信息做进一步的性能优化。
该方案有以下优点:
不同于传统推理框架,MegCC 是一个真真实实的深度学习模型编译器,具备极其轻量的 Runtime 二进制体积,高性能,方便移植,极低内存使用以及快启动等核心特点。用户可在 MLIR 上进行计算图优化,内存规划,最后通过预先写好的 code 模版进行代码生成。目前,MegCC 已支持 Arm64 ,Armv7 ,x86 ,risc-v 以及单片机平台。
GitHub 开源地址:https://github.com/MegEngine/MegCCgithub.com/MegEngine/MegCC
使用 MegCC 完成模型部署只需要完成以下 3 步:
以 YOLOX 模型为例,运行效果如下图:
从图中可见,MegCC 生成的推理程序在保证推理性能良好(模型测速结果为 670ms )的情况下,其大小可以达到 95KB 。
详细操作文档:MegCC/how-to-use-chinese.md at main · MegEngine/MegCC
手把手操作教程:挑战 100KB 可执行程序高性能推理 YOLOX 模型
目前 MegCC 仅支持 MegEngine 模型作为输入,其他模型格式可以考虑转换到 ONNX ,然后通过 mgeconvert 进行模型格式转换。
预计在未来 2 个月内,MegCC 将支持更多的模型格式编译。同时实现以下进阶功能:
大家在使用 MegCC 过程中有任何问题,欢迎随时提 issue 告诉我们,也欢迎提 PR 帮助 MegCC 变得更好。
GitHub:MegEngine 旷视天元 (欢迎 star~
Gitee:MegEngine/MegEngine
MegEngine 官网:MegEngine-深度学习,简单开发
欢迎加入 MegEngine 技术交流 QQ 群:1029741705
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.