You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
SSD 모델 앞단의 VGG에서 나오는 conv4_3에 대하여.
conv4_3 has a different feature scale compared to the other layers,
we use the L2 normalization technique ...
이렇게 나오는데, conv4_3이 왜 다른 layer들과는 다른 feature scale을 가지고 있는 것인가요?
댓글에서, 위의 논문을 링크
Fig.2의 그림을 보면, conv4_3만 다른 scale을 가진것이 아니라, 각 depth 차이에 따라 모든 convolution layer은 다른 scale을 가진다는 의미인것으로 해석해야할듯하다. 분명한것은 conv4 의 이전부터(..conv3.conv2.등은)의 layer는 더 scale이 더 커진다는 것.
x, y축 설명이 없다.ㅠ
이 논문에서는 서로 다른 scale을 가진 feature를 concat하여 적용하는데, concat하기 이전에, l2-normalization을 하면 이 논문의 task인 segmentation이 좋아진다라고 설명
normalization이 왜 필요한 이유?
Naively concatenating features leads to poor performance as the ”larger” features dominate the ”smaller” ones. > 즉, 더 큰(월등한) 속성이 작은 속성을 지배(작은 속성은 나오나마나한..)하게 되면서, feature의 성능이 저하 > concat할때, normalization을 하지않으면, 그냥 larger feature 혼자 쓰는것과 차이가 없다란 의미인듯.
그래서, 위의 table에서, "pool6 + fc7 + conv5 + conv4" 부터 normalization을 하지 않는 경우에서는, ("pool6 + fc7 + conv5)의 경우에서는 서로 scale이 Fig.2에서 보는것 처럼 거의 비슷해서 성능이 향상되는데, conv4를 추가한것부터 scale이 점점 차이가 나, 문제가 성능이 저하되고, 맨 마지막에 conv3를 추가한 feature의 경우 매우 낮아진다는것을 알수 있다.
다른것은 필요 없고, conv4..conv3..들은 normalization을 해야함.!!!
https://arxiv.org/abs/1506.04579
The text was updated successfully, but these errors were encountered: