Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

模型功耗分析 #54

Open
happy-ngh opened this issue Jul 15, 2021 · 5 comments
Open

模型功耗分析 #54

happy-ngh opened this issue Jul 15, 2021 · 5 comments

Comments

@happy-ngh
Copy link

是否有FP16, INT8, Binary相同结构下的功耗对比分析数据?

@jianfeifeng
Copy link
Collaborator

jianfeifeng commented Jul 15, 2021

目前没有。

@yuxianzhi
Copy link
Contributor

yuxianzhi commented Jul 19, 2021

这个是birealnet18在arm CPU大核上fp16和fp16+bnn的功耗对比,在小核上差异更大

image

@happy-ngh
Copy link
Author

这个是birealnet18在arm CPU大核上fp16和fp16+bnn的功耗对比,在小核上差异更大

image

方便提供下CPU型号吗?另外,这里的fp16+1是指bi-real BNN Conv计算部分是BNN,其余部分为BNN?额外再问一个,FP32的是否方便测试下?

@happy-ngh
Copy link
Author

这个是birealnet18在arm CPU大核上fp16和fp16+bnn的功耗对比,在小核上差异更大

image

非常感谢~

@yuxianzhi
Copy link
Contributor

yuxianzhi commented Jul 26, 2021

这个是birealnet18在arm CPU大核上fp16和fp16+bnn的功耗对比,在小核上差异更大
image

方便提供下CPU型号吗?另外,这里的fp16+1是指bi-real BNN Conv计算部分是BNN,其余部分为BNN?额外再问一个,FP32的是否方便测试下?

这个是一个合作方测试的,应该是Armv8.2以上的CPU,kirin 990?

Conv算子是BNN,其余算子为FP16

Bolt目前arm只支持最优的fp16+1,fp32+1是弱于fp16+1的。

因为网络权限问题,通知邮箱不能及时登录,我们有一个QQ群,可以在群里问答833345709。

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

3 participants