-
Notifications
You must be signed in to change notification settings - Fork 1.6k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Android image_classification_demo 更换,自己转换后模型推理报错. #5559
Comments
您好,我们已经收到了您的问题,会安排技术人员尽快解答您的问题,请耐心等待。请您再次检查是否提供了清晰的问题描述、复现代码、环境&版本、报错信息等。同时,您也可以通过查看官网文档、常见问题、历史Issue来寻求解答。祝您生活愉快~ Hi! We've received your issue and please be patient to get responded. We will arrange technicians to answer your questions as soon as possible. Please make sure that you have posted enough message to demo your request. You may also check out the API,FAQ and Github Issue to get the answer.Have a nice day! |
据说,你们关于rk3399 的GPU 推理有做支持是么? 上面的这个Demo 能用么? 如何修改去使用GPU去推理, 或者能够体现你们在同一个设备上面做的推理资源调度? |
建议在 https://github.com/PaddlePaddle/Paddle-Lite/releases 选择制定版本的opt工具生成nb模型,然后用对应的lite库和头文件替换demo中的文件。 |
RK3399 armlinux的还没有支持,android的支持了哈 |
我自己尝试去转换模型,然后去推理这个模型,但是我在推理的时候我遇到了问题.
我PC端的环境如下所示
Ubuntu 16.04 anaconda python3.5 tf=1.14
我下载的模型是MobileNet_v1
使用的Demo程序,并且我已经成功在我的设备上面运行起来这个Demo.
由于我再使用将TF 训练好的模型转换,优化一键生成的时候遇到了问题,我选择分布去运行.
下图是我成功优化完模型的截图
下图是我在Android demo 中运行推理时遇到的问题的图片
请帮我定位下我错误的位置,十分感谢.
你好,如何确定opt(paddle_lite_opt)的版本? 进而确定这个opt 和 paddle-lite 的版本是一致的.
我认为,我这个模型与demo中使用的模型在APP 层输入的要求应该是一致的,所以我并不需要在APP上面,关于模型的输入,图片的大小,做出改变. 不知道这一点,我理解是是否有问题.
Originally posted by @TUT-jiayou in #5529 (comment)
The text was updated successfully, but these errors were encountered: