Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

caffe 训练速度仍然很慢,请问作者后来有发现这个问题吗, #26

Open
shiyuanyin opened this issue May 13, 2019 · 14 comments

Comments

@shiyuanyin
Copy link

@xialuxi ,谢谢您的回复,我上午看了adaface的论文的实现
用caffe 训练很慢的原因请问作者后来有发现吗,前向传播我觉得挺快的
我设置的参数是batch size=56 l两块1080 iter_size:6
/57597324-8428ad00-7581-11e9-9fa1-e2d72d0446f7.png)
12:49:24.228211 23509 solver.cpp:243] Iteration 0, loss = 24.1503
I0513 12:49:24.228235 23509 solver.cpp:259] Train net output #0: accuracy-t = 0.839286
I0513 12:49:24.228257 23509 solver.cpp:259] Train net output #1: softmax_loss = 22.5511 (* 1 = 22.5511 loss)
I0513 12:49:24.228299 23509 sgd_solver.cpp:138] Iteration 0, lr = 0.01
I0513 12:54:50.852994 23509 solver.cpp:243] Iteration 100, loss = 20.3324
I0513 12:54:50.853057 23509 solver.cpp:259] Train net output #0: accuracy-t = 0.928571
I0513 12:54:50.853081 23509 solver.cpp:259] Train net output #1: softmax_loss = 17.7896 (* 1 = 17.7896 loss)
I0513 12:54:50.923504 23509 sgd_solver.cpp:138] Iteration 100, lr = 0.01
I0513 13:00:39.458894 23509 solver.cpp:243] Iteration 200, loss = 18.8438
I0513 13:00:39.459019 23509 solver.cpp:259] Train net output #0: accuracy-t = 0.964286
I0513 13:00:39.459044 23509 solver.cpp:259] Train net output #1: softmax_loss = 16.4004 (* 1 = 16.4004 loss)
I0513 13:00:39.500185 23509 sgd_solver.cpp:138] Iteration 200, lr = 0.01
I0513 13:06:26.364652 23509 solver.cpp:243] Iteration 300, loss = 18.461
I0513 13:06:26.364759 23509 solver.cpp:259] Train net output #0: accuracy-t = 0.946429
I0513 13:06:26.364783 23509 solver.cpp:259] Train net output #1: softmax_loss = 16.8125 (* 1 = 16.8125 loss)

@xialuxi
Copy link
Owner

xialuxi commented May 13, 2019

你用的什么网络训练的,使用的什么数据,数据规模多大?

@wavelet2008
Copy link

除了 lost adaface 不一样 ,其他都一样的情况下,收敛速度loss好慢啊,

@xialuxi
Copy link
Owner

xialuxi commented Jun 17, 2019

说实话,这个损失函数的效果并没有论文说的那么好,感觉还是原始的arcface的比较work。
建议使用arcface

@wavelet2008
Copy link

说实话,这个损失函数的效果并没有论文说的那么好,感觉还是原始的arcface的比较work。
建议使用arcface

谢大神

@wavelet2008
Copy link

说实话,这个损失函数的效果并没有论文说的那么好,感觉还是原始的arcface的比较work。
建议使用arcface
Iteration 12000次 loss 从16.4 降到14.9 正常吗, 其他的loss 早就降到loss=1.0以内了

@xialuxi
Copy link
Owner

xialuxi commented Jun 17, 2019

我自己训练的时候,acc=0.98左右, loss = 5.8左右,感觉是有点不是很正常,loss太高了。
测试效果也是不理想,参考别人的论文以及看法,这个损失函数确实有水分。

@wavelet2008
Copy link

loss 开始高 没有关系,跟数据有关系,主要是降的太慢,又回到loss=15.1,晚上跑一晚上看看,能不能降到1以内

@wavelet2008
Copy link

我自己训练的时候,acc=0.98左右, loss = 5.8左右,感觉是有点不是很正常,loss太高了。
测试效果也是不理想,参考别人的论文以及看法,这个损失函数确实有水分。

说实话,这个损失函数的效果并没有论文说的那么好,感觉还是原始的arcface的比较work。
建议使用arcface

大神我用arcface 训练三天三夜,acc=0.984. loss=1.x 有什么办法让acc=0.99+ 不改变训练的数据情况下

@xialuxi
Copy link
Owner

xialuxi commented Jun 24, 2019

可以试一下调整动量momentum。

@wavelet2008
Copy link

可以试一下调整动量momentum。

大神 昨晚把动量从0.92调到0.9 m 0.35->0.4 acc=0.99 不知道收敛到0.996+

@Laulian
Copy link

Laulian commented Jul 4, 2019

@wavelet2008 你们说的acc是fc6层作为输入的acc么?请问训练过程中AdaCosAddmScale的acc大概能到多少

@shiyuanyin
Copy link
Author

shiyuanyin commented Jul 9, 2019 via email

@WW2401
Copy link

WW2401 commented Oct 21, 2019

@wavelet2008 你们说的acc是fc6层作为输入的acc么?请问训练过程中AdaCosAddmScale的acc大概能到多少

同问~

@erow
Copy link

erow commented Dec 28, 2019

训练速度多少? 每秒86个samples?

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

6 participants