持续更新中.......
本项目是AICore项目的扩展,主要是将AICore中的模型部署到以下所有平台上
部署过程要考虑硬件架构、系统版本、加速设备(GPU,CPU,...)、框架、编程语言 ,因此将所有情况整理成如下表格,
ID | Arch | Platform | API | FrameWork(Hardware Acceleration) | 项目目录 |
---|---|---|---|---|---|
01 | x86 | Ubuntu18.04+ | C++ 11 | onnxruntime1.11.0(cpu) | |
02 | x86 | Windows10 | C++11 | onnxruntime1.11.0(cpu) | OnnxRuntimeWindowsCPP |
03 | x86 | Windows10/Ubuntu18.04+ | Python3.6+ | onnxruntime1.11.0(cpu) | OnnxRuntimeWinlinuxPython |
🍓 | |||||
07 | x86 | Ubuntu18.04+ | C++ 11 | tensorrt8.2(gpu) | |
08 | x86 | Windows10 | C++ 11 | tensorrt8.2(gpu) | OnnxRuntimeWindowsCPP |
09 | x86 | Windows10/Ubuntu18.04+ | Python3.6+ | tensorrt8.2(gpu) | |
🍒 |
注意
- 其中Windows开发环境以VS工程备份在百度云,linux环境备份成Docker镜像。
- 本工程并未将tensorrt、onnxruntime等加速框架合并成一个库,而是分成多个库,方便以后调试
本文是x86、windows10、C++库制作过程
注意:不管是GPU版本,还是CPU版本,请先确定CUDA、OnnxRuntime版本,参考
最新版本的onnxruntime可能不支持,所以以下内容仅供参考
略
安装略,因为测试过程中需要opencv,所以需要安装
注意:一定要做好版本匹配
略
编译安装略
一定要做好版本匹配
注意:请先确定CUDA、TensorRT版本,参考
略,参考onnxruntime如何安装的
-
ONNXRuntime官方资料
-
Onnxruntime-C++参考
-
[1] onnx_runtime_cpp-github *
-
[2] onnxruntime demo2 *
-
[3] onnxruntime demo3 *
-
[4] onnxruntime demo4 *
-
[2] onnxruntime的c++使用 *
-