You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Source Domain과 Target Domain간의 Distribution이 다를때 문제> 즉, 실제 학습은 Distribution이 다른 Source Domain으로하고 실제 Target Domain을 prediction하려고 한다면 문제가 발생한다.
이런한 문제에 대한 예는
이러한 문제를 해결하려는 것을 Domain Adaptation
본 연구에서는 이러한 문제를 해결하기 위해 GAN의 개념을 차용한 Domain-Adversarial Training 기법을 처음 도입
기존 연구
re-weighting하여 Source Domain 과 Target Domain 사이의 bias를 맞춰주자.
feature representation > embedding ? <- 이거와 유사?
iterative methods...?
Domain Adaptation 예
전자분야에서 학습시킨 모델이 게임분야에 적용하기를 원함.
DANN(Domain-Adversarial Training of Neural Networks)
본문은 Binary Classification으로 한정
위의 그림처럼 3가지로 구성
Feature Extractor , 이는 아래 공통
Label predictor : 파란색은 일반적인 Image Classification 과정
Domain Classifier : Source Domain vs Target Domain 의 분류기
중요한 개념은 forward가 아니라, back-propagation 과정
즉, 실제 domain분류기는 자체는 잘 분류해야하는것이 원칙이지만, 실제적으로 Source Domain vs Target Domain의 차이를 없애려면 분류가 잘 못해야하는것이 중요하다.
* 따라서, 위의 그림에서 이역할을 하는것이 GRL(gradient reversal layer)
이는 forward과정에서는 그냥 pass
back-propagation에서 gradient의 reverse 즉, -1를 곱해서 학습시키도록하여, 두 Domain간의 차이를 없애도록한다. (즉, 여기서는 분류를 잘 못하도록한다.)
동시에, Label predictor는 잘 되게하는것이 주요 contribution
실제 논문의 그림은
DANN Theory - 완벽히 이해못했음. 이해가면 덧붙히겟음 - 어려움.
target domain
source domain
그차이를 빨간색 사각형 으로 나타낼수 있는데. 이를 total variation으로 나타낼수 있다. (밑의 식에서 노락색 부분이)
total variation
녹색은 그냥 상수 = 라벨관련 function { 0, 1} 실질적으로 그 차이가 (바라는 차이)는 거의 없을거라 예측하여 0으로 설정
So, 그래서 다음과 같이 정의 가능
실제적으로, finite distribution을 계산해야하기 때문에 위의 부분을 계산할수 없고, 모두 경우 알아야할 필요도 없다.
NN에서 나타낼수 있는 것만 보자.
*이것은 이미 증명되었다. 수학자에 의해서 (= 어렵다)
https://arxiv.org/abs/1505.07818
http://jaejunyoo.blogspot.com/2017/01/domain-adversarial-training-of-neural.html
많이 어려워 이 동영상을 많이 참고 : https://www.youtube.com/watch?v=n2J7giHrS-Y
The text was updated successfully, but these errors were encountered: