This research aims at simply deploying deeplearning on mobile and embedded devices, with low complexity and high speed. old name mobile deep learning.
Clone or download
Latest commit 02e4a29 Oct 21, 2018

README.md

Paddle-Mobile

Build Status Documentation Status License

欢迎来到 Paddle-Mobile GitHub 项目。

Paddle-Mobile是PaddlePaddle组织下的项目,是一个致力于嵌入式平台的深度学习的框架。Paddle-Mobile设计思想和PaddlePaddle的最新版fluid版本保持了高度一致,同时针对嵌入式做了大量优化。设计之初就对嵌入式的性能、体积、能耗、硬件平台覆盖等方面做了考虑。

简单搜索线上效果

如下gif是简单搜索app的线上主体检测应用效果

ezgif-1-050a733dfb

Demo目录

点我

Features

  • ARM CPU
mobilenet arm v7 1线程 2线程 4线程
麒麟970(ms) 108.180 63.935 37.545
麒麟960(ms) 108.588 63.073 36.822
高通845(ms) 85.952 48.890 28.641
高通835(ms) 105.434 62.752 37.131
mobilenetssd arm v7 1线程 2线程 4线程
麒麟970(ms) 212.686 127.205 77.485
麒麟960(ms) 212.641 125.338 75.250
高通845(ms) 182.863 95.671 56.857
高通835(ms) 213.849 127.717 77.006
googlenet(v1) arm v7 1线程 2线程 4线程
麒麟970(ms) 335.288 234.559 161.295
麒麟960(ms) 354.443 232.642 157.815
高通845(ms) 282.007 173.146 122.148
高通835(ms) 341.250 233.354 158.554
squeezenet arm v7 1线程 2线程 4线程
麒麟970(ms) 83.726 57.944 36.923
麒麟960(ms) 85.835 55.762 36.496
高通845(ms) 71.301 41.618 28.785
高通835(ms) 82.407 56.176 36.455
yolo arm v7 1线程 2线程 4线程
麒麟970(ms) 129.658 79.993 49.969
麒麟960(ms) 130.208 78.791 48.390
高通845(ms) 109.244 61.736 40.600
高通835(ms) 130.402 80.863 50.359
测试机型信息:
麒麟970:荣耀v10     (2.36GHz * 4 + 1.8GHz * 4)
麒麟960:华为mate9   (2.36GHz * 4 + 1.8GHz * 4)
骁龙835:小米6       (2.45GHz * 4 + 1.9GHz * 4)
骁龙845:OPPO FindX  (2.80GHz * 4 + 1.8GHz * 4)
  • Mali GPU

    Mali GPU是百度和ARM合作开发的,双方团队近期都在致力于将paddle的op能无缝运行在ACL(arm compute library)。目前已经支持squeezenet,googlenet,resnet等几个网络模型,后续会继续加大力度。使全部移动端paddle op能高效运行在mali gpu上。

  • 苹果设备的GPU Metal实现

mobilenetfssd 速度
A9(ms) 33.78
A10(ms) 24.05
A11(ms) 17.15
genet 速度
A9(ms) 3.49
A10(ms) 2.54
A11(ms) 1.43
  • FPGA

    FPGA实现正在进行中,是基于Xilinx的ZU5目标开发板。

  • 灵活性

    • paddle-mobile cpu版不依赖任何第三库, 可进行快速集成。
    • 使用泛型特化进行平台切换, 可灵活切换 cpu、gpu 和其他协处理器。
    • 可根据特定的常见网络, 进行编译特定的 op, 降低编译时间, 减小包大小。
    • 使用 docker 编译, 提供统一的编译环境。
    • 高可拓展性, 方便拓展其他协处理器, 提供高性能 arm 算子实现, 方便其他协处理器开发者集成开发。
    • 直接兼容 paddle-fluid 模型, 不需要额外的转换操作。
  • 体积

    paddle-mobile从设计之初就深入考虑到移动端的包体积的问题,cpu实现中没有外部依赖。在编译过程中,如果该网络不需要的op是完全不会被打入的。同时编译选项优化也为体积压缩提供了帮助。 除了二进制体积,我们对代码体积极力避免过大。整个仓库的代码体积也非常小。

文档

设计文档

关于paddle-mobile设计文档在下面链接中,如果想了解更多内容。issue中会有很多早期的设计和讨论过程。 设计文档链接

开发文档

开发文档主要是关于编译、运行等问题。做为开发者,它可以和贡献文档共同结合使用。

贡献文档

  • 贡献文档链接
  • 上面文档中涵盖了主要的贡献代码流程,如果在实践中您还遇到了其他问题,可以发issue。我们看到后会尽快处理。

模型获得

目前Paddle-Mobile仅支持Paddle fluid训练的模型。如果你手中的模型是不同种类的模型,需要进行模型转换才可以运行。

1. 直接使用Paddle Fluid训练

该方式最为可靠,推荐方式

2. caffe转为Paddle Fluid模型

链接

3. ONNX

ONNX全称为“Open Neural Network Exchange”,即“开放的神经网络切换”。该项目的目的是让不同的神经网络开发框架做到互通互用。

除直接使用PaddlePaddle训练fluid版本的模型外,还可以通过onnx转换得到个别Paddle fluid模型。

目前,百度也在做onnx支持工作。相关转换项目在这里:paddle-onnx

4. 部分测试模型和测试图片下载

下载链接

问题解决

欢迎提出或解决我们的问题,有疑问可以发issue. Github Issues.

Copyright and License

Paddle-Mobile 提供相对宽松的Apache-2.0开源协议 Apache-2.0 license.

旧版 Mobile-Deep-Learning

原MDL(Mobile-Deep-Learning)工程被迁移到了这里 Mobile-Deep-Learning