-
Notifications
You must be signed in to change notification settings - Fork 392
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
batch_size / accum_batch_size #55
Comments
|
所以,batch_size的大小还是会影响训练效果的.之所以会影响,主要是因为batch_size过小时,对BN层造成影响. |
@foralliance |
那如果网络模型中没有BN层,或者说BN层没开,是不是可以理解成我前面说的:batch_size无论大小多少,都不会改变模型的训练效果,改变的只是模型训练的快慢. |
@foralliance |
@sfzhang15 |
还有一个点麻烦你,如果BN层配置如下:
是不是就是BN层没打开,相当于BN层的参数固定. 在RefineDet中,BN层设置如下:
所以,BN层打开,参数要学习 |
@foralliance |
@sfzhang15 |
我使用squeezenet分类网络测试过,分别设置了64x8/128x4/256x2一共3组实验,最终训练结果几乎一样,至于模型训练快慢看不出来明显差异。 @sfzhang15 打扰下,再问一个问题,如果我使用了在imagenet上训练的分类网络(此网络包含BN层),我使用这个分类网络作为目标检测网络的body网络时,在训练检测网络的过程中,对于body网络的BN层我是使用原来的BN参数在它的基础上学习,还是弃用原来BN参数,重新学习BN参数呢? |
@ujsyehao |
@sfzhang15 HI
比如说在执行ResNet101_COCO_320.py时,因为硬件的限制,只能将batch_size设置为4,但是accum_batch_size=32,相应的iter_size=8.
换句话说,不论batch_size为多少,因为iter_size的存在,accum_batch_size始终能保持32.所以说,不论batch_size是多少,始终是在处理32张图片后,才执行一次梯度下降。
那能否这样认为:
The text was updated successfully, but these errors were encountered: